Cali, abril 9 de 2026. Actualizado: miércoles, abril 8, 2026 22:24
Sam Altman, director ejecutivo de OpenAI, rechazó esta semana en una entrevista pública estimaciones que circulan en internet sobre el uso de agua de sistemas de inteligencia artificial y volvió a poner el foco en el consumo energético global de la tecnología.
Las declaraciones se produjeron durante una charla organizada por The Indian Express, en el marco de una importante cumbre de inteligencia artificial en India.
Altman calificó de “totally fake” las afirmaciones que atribuyen a cada consulta a ChatGPT consumos equivalentes a varios galones de agua —por ejemplo, versiones virales que mencionan “17 gallons of water for each query”.
Reconoció sin embargo que en el pasado, cuando los centros de datos usaban enfriamiento por evaporación, el uso de agua era un problema real.
Su argumento: hoy en día ya no se recurre de forma generalizada a ese tipo de enfriamiento, por lo que las cifras que circulan en internet “no tienen conexión con la realidad”.
Aunque descartó los cálculos más alarmistas sobre el agua por consulta, Altman dijo que es “fair” preocuparse por el consumo energético de la IA, no tanto por lo que gasta cada consulta individual, sino por el total, dada la creciente adopción de estas herramientas.
En la entrevista comentó que, ante ese aumento de demanda, el mundo debe “move towards nuclear or wind and solar very quickly”, es decir, acelerar la transición a fuentes eléctricas menos contaminantes.
Sobre la comparación entre el consumo de una consulta y el de un dispositivo, Altman rechazó una cifra citada en la conversación —la idea de que una consulta a ChatGPT equivale al uso de “1.5 iPhone battery charges”— y dijo: “There’s no way it’s anything close to that much.”
Altman también puso en contexto otro argumento recurrente: que entrenar modelos de IA consume mucha energía. Recordó que buena parte del debate se enfoca en cuánto costó energéticamente entrenar un modelo frente a cuánta energía consume hacer una sola “inference” (una consulta o respuesta).
Altman utilizó además una comparación provocadora para relativizar el gasto de entrenar una inteligencia: “But it also takes a lot of energy to train a human” dijo, detallando que criar y educar a una persona consume recursos durante años (“It takes like 20 years of life and all of the food you eat during that time…”) y que, medido así, la eficiencia energética por respuesta podría ya favorecer a la IA.
El artículo recuerda que no existe una obligación legal para que las empresas tecnológicas divulguen cuánto consumen en agua y energía, por lo que investigadores y científicos han intentado estimarlo de forma independiente.
TechCrunch enlaza reportes previos que abordan investigaciones y también la relación entre centros de datos y el aumento de precios de la electricidad. Esa falta de datos oficiales complica comparar y verificar afirmaciones virales sobre consumo por consulta.
Las declaraciones de Altman subrayan dos ideas prácticas para el público: primero, no todas las cifras que circulan en redes sobre “litros de agua por consulta” están verificadas y algunas han sido exageradas; segundo, el crecimiento del uso de la IA plantea un desafío real de demanda energética que remite a decisiones de política pública y a la necesidad de redes eléctricas más limpias.
En la entrevista, Altman sugiere que la solución pasa por cambios en la matriz energética más que por prohibir o limitar el uso de herramientas de IA a nivel de usuario.
Esta nota fue generada 100% con IA. La fuente fue aprobada por Diario Occidente y el contenido final fue revisado por un miembro del equipo de redacción.


La curaduría y revisión editorial de estas notas está a cargo de Rosa María Agudelo Ayerbe, comunicadora social y periodista, con maestría en Transformación Digital y especialización en Inteligencia Artificial.
Desde su rol como líder del equipo de innovación y transformación digital del Diario Occidente, y a través de la unidad estratégica DO Tech, realiza un seguimiento permanente a las principales novedades en tecnología e inteligencia artificial a nivel global.
Estas notas se apoyan en un agente de investigación basado en inteligencia artificial, diseñado para monitorear semanalmente avances, lanzamientos y debates clave del sector.
El contenido es posteriormente leído, analizado, contextualizado y validado editorialmente antes de su publicación.
Este proceso forma parte del mecanismo de actualización continua que permite interpretar los desarrollos tecnológicos desde una mirada periodística, crítica y comprensible para audiencias no especializadas.
Fin de los artículos
Ver mapa del sitio | Desarrollado por: