¿Cuánta agua consume realmente ChatGPT? Sam Altman responde y cambia el foco del debate

El director de OpenAI reveló cifras concretas sobre el consumo de agua y energía de cada interacción con ChatGPT, en un intento por despejar mitos sobre el impacto ambiental de la Inteligencia Artificial.

Sam Altman, CEO de OpenAI.

Sam Altman, CEO de OpenAI.

En medio del creciente debate sobre el impacto ambiental de la inteligencia artificial, Sam Altman, CEO de OpenAI, publicó un extenso análisis en su blog en el que aclara cuánto recurso natural consume realmente ChatGPT cada vez que un usuario le hace una consulta. Su mensaje apunta a desmentir estimaciones alarmistas y reubicar la discusión en torno al futuro de la Inteligencia Artificial.

De acuerdo con Altman, cada pregunta al chatbot genera un consumo de agua ínfimo: apenas 0,000085 galones por interacción, lo que equivale a cerca de 0,000322 litros, o lo que es lo mismo, la quinceava parte de una cucharadita. En cuanto a la energía, el uso promedio por respuesta es de 0,34 vatios-hora, lo que representa el gasto de una lámpara LED durante unos minutos o el de un horno por poco más de un segundo.

Un contraste con estudios anteriores

Las cifras publicadas por Altman contrastan con investigaciones realizadas el año pasado por académicos de las universidades de Riverside y Arlington, que estimaban que 50 preguntas a GPT-3 podían consumir hasta dos litros de agua. En ese momento, el tema generó gran preocupación ambiental y fue abordado por medios de todo el mundo, incluyendo un informe especial de La Voz Chequea.

El CEO de OpenAI sostiene que, si bien la infraestructura de inteligencia artificial requiere recursos, los avances en automatización y eficiencia energética reducirán drásticamente su impacto. De hecho, señala que el costo de operar modelos como ChatGPT "debería converger con el costo de la electricidad" a medida que la tecnología se masifique.

Una visión ambiciosa: hacia una IA abundante y personalizada

En su publicación, Altman va más allá de las métricas ambientales. Propone una hoja de ruta hacia lo que define como una “singularidad suave”, una etapa futura en la que la inteligencia artificial será ubicua, eficiente y disponible para todos. Según su calendario, entre 2025 y 2027 veremos avances como agentes cognitivos reales, IA capaz de generar conocimiento original y robots funcionales en el mundo físico.

El impacto, advierte, será masivo: transformación de empleos, redefinición del conocimiento y una nueva escala de progreso humano. Pero también reconoce los desafíos pendientes: la seguridad, la distribución equitativa del acceso a la superinteligencia y su alineación con valores humanos serán cuestiones vitales.

Altman concluye con una afirmación contundente: la inteligencia artificial “demasiado barata para ser medida” está a la vuelta de la esquina. Y si bien no todo el camino está claro, cada avance desplaza un poco más la oscuridad.

Dejá tu comentario

Te puede interesar