La IA puede sufrir un burn-out por la sobrecarga de trabajo que le exigen los humanos
Una búsqueda con un asistente como ChatGPT consume 10 veces más electricidad que una consulta clásica por Google
- 7 minutos de lectura'
El cerebro humano pesa 1,3 kilos, representa 2% de nuestro peso, utiliza apenas 5% del metabolismo y consume 20% de nuestra energía. A título comparativo, los 8.000 data centers del planeta –que alojan los servidores, infraestructuras de almacenamiento, equipos de red y otros dispositivos tecnológicos necesarios para el manejo de datos a gran escala– consumieron 350 TWh en 2023, según la Agencia Internacional de la Energía (AIE). Esa cifra alucinante representa entre 2 y 3% del consumo energético global.
En su libro Uné idée dans la tête (Una idea en mente), el neurólogo francés Stanislas Dehaene confronta la maravillosa maquinaria biológica heredada de Homo Sapiens con los interrogantes y dificultades que plantea la Inteligencia Artificial (IA). A través de ese recurso didáctico, el científico ilustra con claridad la plasticidad cognitiva del cerebro y sus posibilidades infinitas de aprendizaje, para asegurar que el ser humano no perdió la batalla frente la tecnología cibernética.
Ese duelo de potencialidades entre la informática y el cerebro coloca en perspectiva la multiplicación de centrales nucleares –en construcción o en proyecto– que se aceleró en los últimos años como consecuencia de la evolución conjunta de la inteligencia artificial, los data centers y la proliferación de las criptomonedas, tres innovaciones tecnológicas particularmente consumidoras de energía. Para saciar ese consumo, los colosos de la high tech y las finanzas mundiales construirán en los próximos 25 años unos 400 reactores tradicionales, sobre todo en China –líder del sector–, Rusia, India y Polonia. Además, los expertos prevén una estampida de construcciones de unas 80 minicentrales de reactores modulares (SMR), más pequeños y flexibles, que tienen una potencia variable de 10 a 300 megawatts (MG). Fabricados en forma de módulos en una planta industrial, luego se instalan en el lugar de producción. El costo de cada proyecto oscila en 1.000 millones de dólares.
Esos pequeños reactores nucleares modulables (también conocidos por las siglas PRM o SRM) se empleaban tradicionalmente para alimentar la propulsión de submarinos y portaviones. Pero ahora comienzan a convertirse en una opción para responder a diversas demandas civiles. Desde la instalación del primer SMR comercial, inventado por un equipo de la Universidad de Oregón en 2007, hay casi un centenar de SRM en operaciones, incluyendo una minicentral flotante rusa, Akademik Lomonosov, inaugurada en 2022 en Pevek, en el extremo noroeste de Siberia. En 2026 debe comenzar a funcionar en China el primer reactor de demostración comercial terrestre ACP100 (Linglong One) de 125 MW.
Un despliegue rápido y masivo de SMR podría ser la mejor opción para cumplir con el objetivo de reducir drásticamente las emisiones netas de CO2. Los escenarios más exigentes reclaman entre varios miles y decenas de miles de unidades. Un programa de construcción de esas dimensiones representaría un desafío sin precedentes para la industria nuclear, pero también para las autoridades responsables de la seguridad y sobre todo para la sociedad civil, que mantiene un enorme recelo frente a la energía nuclear y a la gestión de residuos que pueden demorar varios miles de años en desaparecer. La segunda reserva es de orden político porque los pequeños reactores modulares pueden facilitar una rápida proliferación nuclear para uso militar o terrorista.
Los temores relacionados con la seguridad no podrán resistir mucho tiempo frente a la presión de la transición energética, cada vez más urgente para impedir que la temperatura aumente cuatro grados (+ °4) a fin de siglo, como advierten los últimos informes del GIEC y del Banco Mundial.
En comparación con las centrales convencionales, el modelo de construcción modular de los SMR permite agregar unidades adicionales a medida que aumenta la demanda. Los partidarios de este sistema invocan, como argumento principal, que su costo total es inferior al de otras fuentes de energía (eólica marina, energía solar térmica, biomasa y energía solar fotovoltaica). El criterio escalonado también puede ser aplicado a la financiación, lo que permitiría amortiguar el impacto económico.
Esas discusiones, especulaciones y fervores se acrecientan a medida que la penuria energética amenaza la expansión de los data centers y –por carácter transitivo– conspira contra la evolución de la inteligencia artificial. En seis años, “la demanda de cálculo artificial se multiplicó por un millón, y ahora se decuplica cada año”, confirmó el 14 de mayo Sundar Pichai, CEO de Google. Para evitar que esa penuria se transforme en drama industrial, los gigantes de la high tech, como Amazon, Microsoft, Google y Meta (Facebook, Instagram) y el chino Huawei totalizarán este año una inversión de 200.000 millones de dólares en nuevas infraestructuras. (Microsoft piensa incluso en rehabilitar la central de Three Mile Island, en Pensilvania, escenario de un traumático accidente 1979). La cifra proyectada representa un aumento de 45 % con respecto a 2023 y 180 % más que en 2019, según Bernstein Research. Ese gabinete de análisis calcula que, debido a la estampida de precios de los procesadores especializados, el gasto en servidores consagrados a la IA se quintuplicará entre 2022 y 2025, y pasará de 25.000 a 125.000 millones de dólares por año. La explicación es simple: una búsqueda a través de un asistente como ChatGPT consume 10 veces más de electricidad que una consulta clásica por Google, según a AIE. Un solo bastidor dedicado a la IA en una granja de servidores requiere de seis a nueve veces más de potencia eléctrica que un bastidor de procesadores clásicos dedicado a otros servicios, según Equinix, uno de los mayores operadores mundiales de data centers para empresas y del cloud. Teniendo en cuenta los aumentos del precio de la energía previstos para el futuro, a su CEO, Charles Meyers, le tiembla la mano cada vez que mira la factura: el consumo eléctrico representa el primer rubro de los egresos de sus data centers (de 30 a 50%). Para anticipar esa perspectiva de asfixia, algunas empresas de Corea del Sur y Estados Unidos ya comenzaron a preparar proyectos de campus con minirreactores nucleares modulables de 1 GW.
El consumo energético de los data centers, que actualmente corresponde a 2% de la demanda mundial, se duplicará en 2026, lo que explica las colosales inversiones realizadas por Amazon, Microsoft y Google en España, Alemania Singapur, Francia, Suecia, Japón, Malasia, Gran Bretaña y los Emiratos Árabes Unidos.
“Después de la chispa de la tecnología digital y la llama del cloud, la inteligencia artificial encendió el fuego. El volumen de la demanda y la cantidad de dinero invertido es superior a los capitales movilizados por cualquier otra innovación tecnológica”, según Meyers.
A nivel mundial, las necesidades de electricidad de la IA, los data centers y los blockchains de criptomonedas pasarán –en total– de 460 TWh en 2022 (2 % del consumo global) a 1.050 TWh en 2026. Esa cifra equivale al consumo alemán, primera potencia económica europea. En Estados Unidos, donde funciona un tercio de los data centers del planeta, el sector llegará dentro de dos años a 200 TWh; en Europa (16 % de los centros), el consumo pasará de 100 TWh a 150 TWh, y solo en China (10 % de los data centers) crecerá de 200 TWh a 350 TWh, tanto como el total mundial en 2023.
Frente a esas perspectivas, los expertos temen que la IA puedan sufrir un burn-out si no tiene la energía necesita para responder a la sobrecarga de trabajo que le exigen los seres humanos.