diciembre 23, 2024

Telecentro di Bologna e dell'Emilia-Romagna

Manténgase al tanto de las últimas novedades de España sobre el terreno

El consenso de NVIDIA apunta a la inminente necesidad de una importante potencia de IA: Barclays por Investing.com

En un informe temático de inversión reciente, los analistas de Barclays analizaron la demanda de energía que acompañará al aumento de las tecnologías de inteligencia artificial, con especial atención al papel de NVIDIA (NASDAQ:) en este panorama.

Según los analistas, las necesidades energéticas esperadas asociadas con los avances en inteligencia artificial resaltan un aspecto crucial de las perspectivas de mercado de NVIDIA.

Barclays Analytics sugiere que los centros de datos podrían consumir más del 9% de la demanda eléctrica actual de EE. UU. para 2030, impulsado en gran medida por las demandas energéticas de la inteligencia artificial. Los analistas señalaron que “la inteligencia artificial incluida en el consenso de NVIDIA” es uno de los principales factores detrás de esta gran predicción energética.

El informe también señala que, si bien la eficiencia de la IA continúa mejorando con cada nueva generación de GPU, el tamaño y la complejidad de los modelos de IA están creciendo a un ritmo rápido. Por ejemplo, el tamaño de los principales modelos de lenguajes grandes (LLM) ha aumentado aproximadamente 3,5 veces por año.

A pesar de estas mejoras, se espera que la demanda general de energía aumente debido al alcance cada vez mayor de las aplicaciones de IA. Cada nueva generación de GPU, como las series Hopper y Blackwell de NVIDIA, es más eficiente energéticamente. Sin embargo, los modelos de IA más grandes y complejos requieren una potencia computacional significativa.

«Los grandes modelos de lenguaje requieren una enorme potencia computacional para lograr un rendimiento en tiempo real», afirma el informe. «Los requisitos computacionales de los grandes modelos de lenguaje también se traducen en un mayor consumo de energía, con cada vez más memoria, aceleradores y servidores necesarios para adaptar, entrenar e inferir estos modelos».

«Las organizaciones que deseen implementar programas LLM para razonamiento en tiempo real tendrán que lidiar con estos desafíos», añadió Barclays.

Para ilustrar la escala de esta demanda de energía, Barclays espera que alimentar aproximadamente 8 millones de GPU requiera alrededor de 14,5 gigavatios de potencia, lo que equivale a unos 110 teravatios-hora de energía. Esta previsión supone un factor de carga medio del 85%.

Se espera que alrededor del 70% de estas GPU se implementen en los EE. UU. para fines de 2027, lo que equivale a más de 10 GW y 75 TWh de potencia y demanda de energía de IA solo en los EE. UU. durante los próximos tres años.

«La capitalización de mercado de NVIDIA indica que esto es sólo el comienzo de la expansión de la demanda de energía a través de la inteligencia artificial», dijeron los analistas. Se espera que el continuo desarrollo e implementación de GPU por parte del fabricante de chips aumente significativamente el consumo de energía en los centros de datos.

Además, la dependencia de la red eléctrica para los centros de datos subraya la importancia de satisfacer la demanda máxima de energía. Los centros de datos funcionan de forma continua y requieren un suministro de energía equilibrado.

El informe cita una notable declaración de Sam Altman, director ejecutivo de OpenAI, en el Foro Económico Mundial de Davos, donde dijo: “Necesitamos mucha más energía en el mundo de la que pensábamos que necesitábamos antes… Creo que todavía necesitamos Hay mucha más energía en el mundo de la que pensábamos que necesitábamos antes… «No estimamos las necesidades energéticas de esta tecnología».