El CEO de OpenAI, Sam Altman, recurrió recientemente a las redes sociales para recordar al mundo que los propios seres humanos son criaturas que consumen mucha energía. En una declaración breve pero controvertida, Altman señaló que también se requieren grandes cantidades de energía para criar y educar a un ser humano, una publicación que claramente pretendía ser una respuesta a las crecientes críticas contra el enorme consumo eléctrico de la industria de la inteligencia artificial, según TechCrunch.
¿Cuánto cuesta entrenar un modelo de IA?
Las cifras del consumo energético de los grandes modelos de lenguaje son significativas. Se estima que el entrenamiento de GPT-3, que tiene 175.000 millones de parámetros, requirió aproximadamente 1.287 MWh de electricidad y generó alrededor de 502 toneladas de equivalentes de CO₂. Esto corresponde al consumo eléctrico anual de unos 130 hogares estadounidenses.
Para GPT-4, que es mucho más complejo, la estimación es drásticamente superior: más de 50.000 MWh, con una huella de carbono potencialmente de diez a cien veces mayor que la de su predecesor, según los datos de investigación disponibles.
Además del entrenamiento en sí, el consumo operativo continuo es considerable. Cada búsqueda individual en ChatGPT utiliza un estimado de 0,34 Wh. Si el servicio gestiona mil millones de solicitudes diarias, esto da como resultado un consumo anual de alrededor de 124 GWh, además del consumo de agua para la refrigeración.

¿Cuánto cuesta "entrenar" a un humano?
El punto de Altman no carece totalmente de fundamento, aunque es difícil establecer cifras precisas. Según la Agencia Internacional de la Energía (AIE), un niño nacido en la década de 1950 generará unas 350 toneladas de CO₂ a lo largo de su vida. Para los niños nacidos en la década de 2020, bajo un escenario de cero emisiones netas para 2050, la estimación baja a 34 toneladas de CO₂.
El consumo energético medio mundial por persona en 2018 fue de 79 gigajulios al año; en EE. UU., se acercó a los 284 gigajulios. A lo largo de toda una vida, esto suma cifras muy elevadas.
También se requiere mucha energía para entrenar a un ser humano.
Las comparaciones directas entre la energía del ciclo de vida humano y el entrenamiento de la IA son metodológicamente complejas, ya que las fuentes de datos miden cosas muy diferentes. El uso de energía humana incluye alimentación, transporte, vivienda, servicios de salud y bienes de consumo durante varias décadas, mientras que el entrenamiento de la IA es un proceso industrial delimitado.

Una comparación defensiva, pero no carente de sentido
Los críticos argumentarán que la publicación de Altman es un movimiento retórico para desviar la atención de una industria con una huella climática que crece rápidamente. No es descabellado: el consumo energético de los centros de datos a nivel mundial está aumentando bruscamente al ritmo del auge de la IA, y el sector se enfrenta a una presión creciente tanto de las autoridades como de los inversores.
Al mismo tiempo, la publicación de Altman apunta a un punto legítimo en el debate más amplio: el consumo de energía por sí solo no es necesariamente un argumento en contra de una tecnología, sino que la cuestión de la utilidad frente al coste es relevante de plantear, tanto para la actividad humana como para la inteligencia artificial.
Los investigadores están trabajando para que el entrenamiento de los modelos de IA sea más eficiente. Se dice que marcos como Zeus, desarrollado en la Universidad de Michigan, pueden reducir las necesidades energéticas hasta en un 75 por ciento sin hardware nuevo, y la compresión de modelos puede suponer ahorros de hasta el 44 por ciento.
El debate continúa
La salida de Altman es sintomática de una industria que se ve cada vez más obligada a defender su uso de recursos ante un público escéptico. El hecho de que el máximo responsable de OpenAI opte por trazar paralelismos con el consumo energético humano en lugar de presentar planes climáticos concretos difícilmente calmará las críticas, pero pone de relieve que el debate energético en torno a la IA es mucho más complejo de lo que suelen indicar los titulares sencillos.
