¿Sabías que despertar a una IA puede costar más que poner la lavadora?

El New York City será testigo el próximo 19 de mayo de un evento poco común: el anuncio de los ganadores de los premios 2026 de la ASME, donde MIT Technology Review ha sido finalista gracias al reportaje más honesto, crudo y necesario sobre el coste energético de la inteligencia artificial. No es cualquier historia, ni un típico “copy-paste” de cifras bonitas. James O’Donnell y Casey Crownhart, dos veteranos del periodismo tecnológico y climático respectivamente, se metieron seis meses a desgajar datos, entrevistar a expertos, y desgranar cientos de hojas con números que muchas grandes compañías preferían dejar en la sombra.

¿El resultado? Un informe que nos pone en la cara el gran elefante en la habitación: la huella energética monstruosa que está dejando el boom de la IA, y de la que nadie quiere hablar claramente. En concreto, el estudio exhaustivo desmenuza desde el consumo real de un único input o “prompt”, hasta extrapolar las necesidades futuras si la adopción de IA sigue su vertiginoso crecimiento.

Y ojo, que el impacto no solo es en kilovatios. El uso de agua para refrigerar esos mastodontes digitales, la procedencia dudosa de esa energía y, encima, quién diablos acaba pagando la factura climática, se sacan a la luz sin adornos ni filtros. Luego de esta investigación que puso los pies en la tierra a la comunidad global, gigantes como OpenAI, Mistral y Google aflojaron la lengua — y los datos — mostrando por primera vez cifras concretas sobre consumo energético y uso de agua.

Así que ya sabes: no solo usas IA para ahorrar tiempo o ser más “eficiente” en tu curro diario, sino que tienes a una bestia insaciable detrás, devorando recursos que ni te imaginas. ¿Quieres ver cómo nos metieron esa bola gigante y en qué estamos metidos? Sigue leyendo, porque esto se pone feo… o al menos necesario.

La trampa del “black box” y la opacidad energética de la IA

Dime la verdad: ¿alguna vez has escuchado a una empresa de IA admitir cuánto gasta una de sus redes neuronales al entrenar o procesar cada input? Ni de coña. La inteligencia artificial se pinta como una “caja negra” tecnológica solo en cuanto a sus algoritmos y lógica interna, pero en lo que se refiere a la energía que traga, reina el secreto hermético. Empresas como OpenAI mantenían esos datos como el secreto mejor guardado (no vaya a ser que los inversores o el público descubran la factura ambiental).

Y es que aquí está la doble trampa: no solo los detalles técnicos del funcionamiento de estas IAs están en segundo plano, sino que el impacto energético general está enterrado en reportes inaccesibles o tan difusos que resulta imposible medirlo. O’Donnell y Crownhart se pasaron medio año levantando esa alfombra y cribando datos públicos, memorias técnicas, reportes financieros y hablando con protagonistas en la industria para poner números exactos y dar cara al monstruo.

De ahí empezaron a calcular, por ejemplo, cuánto consume un prompt de ChatGPT — y redoble de tambores — la cifra es brutal si lo escalas a millones de usuarios activos. Desde ahí extrapolaron cuánto está devorando el conjunto de modelos de IA grandes, y cómo la tendencia apunta a una bola de nieve que va creciendo sin frenos. Eso llevó a una revelación que nadie esperaba: no solo hacen falta servidores potentes, sino que refrigerarlos y mantenerlos en marcha consume cantidades industriales de agua y electricidad, muchas veces generada a partir de fuentes fósiles (sí, la ecohipocresía en estado puro).

Resulta que a pesar del discurso “verde” de algunas empresas tecnológicas, el sector va por detrás en transparencia y responsabilidad medioambiental. Hasta ahora. Y no es solo cuestión de “malos” que ocultan cosas: la complejidad técnica y económica de estos modelos hace difícil cuantificar y comunicar estos impactos sin desencadenar un buen follón mediático y social. Pero oye, ya era hora de que alguien se mojara sin filtros.

¿Cuánta energía gasta un solo prompt? Agárrate

Te lo resumo en plan directo: responder a tu “¿cómo se hace una tarta de manzana?” o simplemente charlar con un chatbot no es ninguna gilipollez para la red. Cada consulta activa miles — literalmente miles — de nodos, consume gigavatios de energía, y hace trabajar a un equipo entero de servidores enfocados en cumplir tu demanda.

Si vas a cifras exactas, el equipo de MIT Technology Review logró calcular el consumo energético real por prompt para algunas de las IA más usadas en el mercado — cifras que estaban escondidas o distorsionadas hasta ahora. Imagínate, un solo pedido puede generar un pico de consumo energético mayor que una casa entera en un día completo, dependiendo del modelo y la complejidad de la consulta. Y si le sumas millones de usuarios diarios, la cosa se dispara.

Esto explica por qué las compañías han estado ocultando o maquillando cifras: ni de coña quieren enfrentarse a un público que podría ponerles la cruz. Más ahora que las alertas sobre el calentamiento global están a tope y la sociedad cada vez exige más transparencia ambiental.

Como analogía para que lo visualices: si en vez de picar una piedra usas toneladas de dinamita para romperla, bueno, ya sabes lo que va a costar. Lo mismo sucede con los modelos de IA actuales: son potentes, impresionantes, pero tragones y contaminantes. Lo flipante es que el reportaje pone sobre la mesa que, a pesar de los avances, hay poca evidencia real de que sean muy eficientes ni que vayan a serlo pronto. Todo lo contrario, parece una carrera loca por la potencia, sin pensar en la factura ecológica.

¿De dónde sale toda esta energía? Spoiler: no es toda verde

Vale, ahora que sabes lo que consume la IA, vamos a la fuente real de esa energía… y no te va a gustar la película. Gran parte del consumo energético de las redes neuronales y centros de datos proviene de electricidad generada a partir de combustibles fósiles, carbón y gas natural, en vez de renovables 100%.

El problema no es tanto la IA per se, sino dónde están los servidores. La mayoría están en zonas donde la energía es barata (hola, carbón) y el clima frío ayuda a refrigerar equipos sin gastar tanto en sistemas de enfriamiento. Esto tiene una consecuencia: aunque el sector tecnológico promueva imágenes de “innovación verde”, detrás hay una infraestructura que sigue siendo altamente contaminante.

Usar agua en toneladas para mantener en temperatura óptima máquinas que procesan IA es otro golpe bajo. No es algo que suela salir en las notificaciones oficiales, pero el estudio evidencia consumo hídrico industrial para sostener la infraestructura (literalmente, millones de litros). Eso debería preocupar hasta al más pongamos un filtro en Google (pero poco probable que pase sin presión).

Si sumas huella energética y climática con huella hídrica, empiezas a ver el panorama: el modelo actual de IA masiva es un lujo con factura pesada para el planeta. Aquí no se trata solo de obsesionarse con la eficiencia, sino de replantear cómo y dónde se desarrollan estas tecnologías.

¿Quién debe pagar el coste real de la inteligencia artificial?

El debate no termina en cifras de energía o agua. El punto caliente — y controversial — viene con la pregunta: ¿quién acaba pagando esta cuenta ecológica tan elevada?

Los usuarios, que aprovechan modelos de IA para tareas diarias sin pararse a pensar en su impacto, probablemente no. Las empresas tecnológicas, por el momento, relegan esos costes a infraestructuras opacas y medios externos. Los gobiernos siguen a la deriva, sin regulaciones claras que obliguen a rendir cuentas ambientales específicas.

Pero el clima no espera. Según este reportaje, la única forma de hacer que la IA sea sostenible pasa por que las compañías asuman la transparencia total, se enfrenten a regulaciones fuertes y opten de verdad por energías limpias y tecnologías más eficientes. Y eso implica un posible aumento en precios, cambios en sus modelos de negocio y cesión de poder para que la sociedad controle mejor el impacto.

Es un pulso directo: ¿vale toda esta voracidad por hacer IA más potente y ubicua, si dejamos más calentamiento, más escasez de agua y un planeta desequilibrado? La investigación impulsó que los gigantes ya empiecen a soltar algo de info pública, pero queda un mundo para que esa transparencia sea real y efectiva.

Y mientras tanto, la bola sigue creciendo, con más millones usando chatbots, automatización y servicios basados en IA. El tema no es irrupción tecnológica, sino cómo hacerla con cabeza… o con la peor cara de insostenibilidad.

¿Pero esto funciona de verdad? El impacto más allá del hype

La inteligencia artificial vive en el hype brutal. Lo pillas rápido, es útil y hace que parecía ciencia ficción en novelas viejas. Pero si miramos entre bastidores, la pregunta es: ¿la tecnología actual va a la luna en todos los sentidos, o solo es otra burbuja de impacto falso?

La investigación realizada por la MIT Technology Review deja claro que aunque los modelos son impresionantes técnicamente, están lejos de ser sostenibles. A nivel global, el consumo energético de la IA no solo es alto; está creciendo más rápido de lo que se implementan las energías renovables, lo que podría terminar siendo un problema ecológico grave.

De momento, el único aporte real de la investigación ha sido obligar a las grandes a abrir un poco las barajas, pero no esperes que anuncien que todos van a pasar mañana a energía 100% limpia ni que van a cerrar centros contaminantes. La realidad es que se trata de un sector frenético, con un enfoque casi obsesivo en la potencia y la velocidad — y un par de responsables #eco como “claims” de fondo para calmar a inversores y usuarios.

Así que, ¿vale la pena toda la parafernalia? Depende. Si está dirigida al progreso social, automatización inteligente y soluciones clave, sí. Pero si solo alimenta la carrera por hype y dinero rápido sin pensar en la factura ecológica, entonces estamos ante un problema todavía mayor que solo un chat bonito sobre “lo rápido que responden” puede ocultar.

Lo que no te han contado: la transparencia comienza a abrir la puerta

Aunque en apariencia todo seguía igual tras meses de pesquisa del equipo de MIT, el verdadero movimiento se notó después. Grandes nombres como OpenAI, Google y Mistral decidieron sacar números concretos en público sobre consumo de energía y agua de sus modelos, algo inaudito hasta entonces.

Esto no significa que estén tirando de la cuerda voluntariamente. Más bien es la presión que la sociedad y los medios han ejercido para evitar que la tecnología siga siendo una caja negra en lo ambiental. Transparencia no perfecta, ni total, pero sí un paso gigante comparado con la opacidad anterior.

Los datos revelados sirven para que ahora exista un mínimo punto de partida: comparación real, debates serios y presión para que la industria invierta en mejorar la eficiencia energética y las fuentes renovables. Si esta tendencia crece, puede convertirse en un estándar, con beneficios tanto para el planeta como para la confianza del público en la inteligencia artificial.

Pero ojo, esto no es un cheque en blanco para que las empresas se relajen. Esa transparencia tiene que ir acompañada de regulaciones claras, auditorías externas y participación ciudadana, o será solo un lavado de cara tecnológico más.

Así que el mérito de esta investigación no es solo cuantificar lo que nadie quería ver, sino poner en marcha un proceso que podría cambiar la historia de la IA y su impacto en el mundo. Vale la pena seguirlo, porque aquí se juega el futuro más sostenible de estas tecnologías, o la confirmación de que solo serán una nueva fuente de consumo voraz.

¿Seguirás utilizando IA sin pensar en todo lo que hay detrás?

Por Helguera

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *