A los quince años de su muerte, el nombre de David Blackwell estará en 2015 en boca de todos los aficionados a la tecnología. Nvidia, el gigante de los semiconductores, ha bautizado su último superchip con el nombre de ese matemático y teórico de juegos que fue el primer afroamericano en ingresar en la Academia Nacional de Ciencias estadounidense.
El lanzamiento del chip Blackwell, cuya producción a gran escala comenzará a principios de 2025, ha suscitado una enorme expectación. El microprocesador formará parte del corazón de los primeros centros de datos especialmente diseñados para la época de la inteligencia artificial (IA) generativa. Jensen Huang, presidente de Nvidia, los llama “fábricas de IA”. Sin embargo, también hará que se preste más atención a los cuellos de botella (desde la fabricación de microprocesadores hasta la construcción de centros de datos) generados por la demanda de potencia de cálculo relacionada con la IA.

Blackwell es una unidad de procesamiento gráfico (GPU), la clase de microprocesador con los Nvidia se ha convertido en un gigante de 3 billones de dólares. El superchip forma parte de una nueva plataforma de Nvidia que hará que algunas de las mayores compañías de IA, incluidos los megaproveedores de servicios en la nube (Amazon, Microsoft y Google), construyan nuevas granjas de servidores a muy gran escala para los cálculos de la IA generativa, con requisitos energéticos sin precedentes.
La demanda está disparada. Baron Fung, de la firma de investigación Dell’Oro, calcula que en 2025 las ventas de servidores para tareas de IA generativa aumentarán en más de tres cuartas partes con respecto a 2024 y alcanzarán los 147.000 millones de dólares, gracias sobre todo al gasto en las GPU Blackwell de los proveedores de hiperescala. En consecuencia, la demanda de energía también está aumentando. Según Lucas Beran, que trabaja en la misma compañía, antes los centros de datos tenían unas necesidades energéticas de 100-200 megavatios (MW) y ahora los grandes requieren 300-500 MW.

Un stand de Nvidia en una edición del salón E3, en Los Angeles
La Agencia Internacional de la Energía (AIE) calcula que el consumo mundial de energía de los centros de datos podría más que duplicarse en los próximos dos años con respecto al nivel de 2022 y alcanzar en 2026 los 1.000 teravatios hora, una cifra equivalente al consumo eléctrico de Japón. Ampliar la red es difícil. Garantizar que la electricidad no emita carbono lo es aun más. Hay planes para volver a poner en marcha la central nuclear de Three Mile Island (Pensilvania) y alimentar con ella varios centros de datos de Microsoft; Google, por su parte, ha encargado reactores nucleares a la empresa Kairos Power.
Se llamen fábricas de IA, centros de datos o granjas de servidores, esas nuevas instalaciones serán superordenadores gigantes. Se espera que la llamada “gigafactoría de computación” planeada por Elon Musk en Memphis cuente con 200.000 GPU. Ahora bien, la energía y los chips no son las únicas limitaciones del mundo real para la IA.
En el 2026 los centros de datos consumirán una cantidad de energía similar a la de Japón
La presión para construir modelos de IA generativa mejores y más grandes también puede crear tensiones a lo largo de la cadena de suministro de semiconductores. Nvidia ya se ha encontrado con problemas de ingeniería en la producción de sus chips Blackwell por parte de la empresa taiwanesa TSMC, lo que ha retrasado su lanzamiento. David Crawford, de la consultora Bain, afirma que si la demanda de GPU sigue creciendo, podría haber escasez de memoria de alto ancho de banda y encapsulado avanzado.
A escala local, los grupos ecologistas de Memphis ya están protestando porque el consumo energético de la fábrica de inteligencia artificial de Musk perjudicará a la población local. A escala mundial, la AIE comunica que algunos países, como los Países Bajos, han frenado la construcción de centros de datos debido a las limitaciones de la red eléctrica. Algunas empresas tecnológicas intentarán aliviar la presión sobre la red instalando generadores in situ, pero esos generadores suelen funcionar con gas natural.

Los nuevos centros de datos no sólo necesitan energía para alimentar sus servidores de inteligencia artificial, sino también para mantenerlos refrigerados. Los sistemas construidos en torno a las GPU Blackwell dependerán de la refrigeración líquida de circuito cerrado, una técnica cuya demanda se espera que aumente el año que viene. Esos cambios requerirán algo más que un simple reacondicionamiento.
A algunos países les resultará más fácil construir infraestructuras de IA generativa. El sistema de planificación centralizada de China facilita la agrupación de granjas de servidores, centrales eléctricas y trabajadores. Sin embargo, ese país no puede acceder a las GPU más sofisticadas de Nvidia debido a las restricciones comerciales impuestas por Estados Unidos. Ni a Oriente ni a Occidente les resultará fácil construir la próxima oleada de IA generativa.
© 2024 The Economist Newspaper Limited. All rights reserved
Traducción: Juan Gabriel López Guix