Sam Altman, director ejecutivo de OpenAI, publicó en los últimos días un ensayo en el que plantea un diagnóstico tan ambicioso como inquietante: el despliegue de la Superinteligencia Artificial ya está en marcha y sus efectos comienzan a sentirse, especialmente en la forma en que trabajamos, nos informamos y tomamos decisiones.
Sam Altman anticipa un futuro dominado por la Inteligencia Artificial en el trabajo y plantea advertencias clave
El CEO de OpenAI publicó un ensayo en el que reflexiona sobre el impacto creciente de la IA, los riesgos de su concentración y la transformación inminente del mundo laboral.
-
Alertan que los chatbots de IA pueden difundir información médica errónea
-
Zuckerberg creó Superintelligence Labs, un equipo para desarrollar una "superinteligencia" de IA

Sam Altman, CEO de OpenAI.
“La etapa crítica ya comenzó”, resume Altman, al advertir que la humanidad habría cruzado un punto de no retorno en relación al desarrollo de sistemas de IA cada vez más potentes. Y lejos de la ciencia ficción, asegura que la verdadera revolución se está dando de manera silenciosa, sin robots caminando entre nosotros, pero con algoritmos que aprenden, predicen y actúan cada vez con mayor autonomía.
ChatGPT como síntoma y símbolo
Para el CEO de OpenAI, el uso cotidiano de herramientas como ChatGPT es una señal clara de que esta tecnología ya superó las capacidades individuales de cualquier ser humano. “Cada día más personas utilizan sistemas de IA para resolver tareas crecientemente complejas”, advierte.
Altman subraya que incluso pequeñas mejoras en estas plataformas pueden tener impactos sociales y económicos de gran escala. “Una leve desalineación entre la intención humana y el comportamiento de un sistema inteligente puede amplificarse si afecta a millones de personas”, sostiene.
Trabajo y productividad en la era de la automatización
Uno de los focos del texto está puesto en el empleo. El empresario afirma que el ritmo de innovación seguirá acelerándose, al tiempo que la sociedad se adaptará, como lo hizo en otras revoluciones industriales. “Ya hay científicos que triplican su productividad gracias a asistentes de IA”, ejemplifica.
Pero lo que viene va más allá: Altman imagina un escenario donde robots construyen otros robots, y donde los centros de datos pueden replicarse de forma autónoma. Este tipo de avances podría dar lugar a una economía autoescalable, basada en la automatización intensiva.
Sin embargo, también reconoce que muchas ocupaciones actuales desaparecerán. Aunque evita caer en el alarmismo, propone un enfoque histórico: así como nadie añora la tarea de los faroleros -aquellos que encendían manualmente las luces en las calles antes de la electricidad-, es probable que las profesiones de hoy pierdan sentido en las próximas décadas.
Incluso plantea que un campesino de hace mil años consideraría irreales muchos de los trabajos modernos, que se desarrollan frente a pantallas, en entornos urbanos y con lujos que antes eran impensados.
Dos desafíos centrales: control y distribución
En paralelo a las oportunidades, Altman advierte sobre los riesgos de avanzar sin marcos éticos. Uno de los mayores peligros, según explica, es el de la “desalineación”: que las decisiones de las IAs no respondan a los intereses humanos reales, sino a objetivos impuestos por algoritmos que priorizan la eficiencia o la gratificación inmediata.
El otro dilema es la concentración del poder: “Debemos evitar que la Superinteligencia quede en manos de unos pocos”, plantea, en referencia a empresas, gobiernos o grupos que puedan usar esta ventaja para dominar sectores clave del conocimiento o la economía.
Como solución, propone que el acceso a estos sistemas sea lo más amplio posible, con tecnologías asequibles y un diseño institucional que garantice equidad, control democrático y beneficios compartidos a escala global.
Dejá tu comentario