OpenAI planea alcanzar los 100 millones de GPUs para 2025, una inversión que impactará en energía y costos a nivel global

TecnologíaOpenAI

OpenAI planea alcanzar los 100 millones de GPUs para 2025, una inversión que impactará en energía y costos a nivel global

OpenAI busca expandir su infraestructura de inteligencia artificial, enfrentando retos energéticos y económicos que podrían transformar múltiples sectores globales.

Descripción

El CEO de ChatGPT, Sam Altman, ha presentado una visión audaz para el futuro de la inteligencia artificial, con una infraestructura capaz de transformar desde la velocidad de los chatbots hasta la estabilidad del suministro energético global. Altman señaló que la meta de OpenAI es alcanzar los 100 millones de GPUs, una cifra ambiciosa, aunque ya están en camino de superar el millón para finales de 2025. Reconoció que esta meta puede ser excesiva, pero afirmó con humor que están en marcha para lograrla.

Las GPUs, o unidades de procesamiento gráfico, son chips especializados que realizan cálculos en paralelo y se han vuelto esenciales para entrenar y ejecutar modelos de lenguaje y otras aplicaciones de inteligencia artificial. A diferencia de las CPUs, que gestionan tareas de forma secuencial, las GPUs permiten realizar miles de cálculos simultáneamente, creando una especie de «cerebro digital» formado por millones de procesadores que trabajan juntos para generar texto, analizar imágenes o simular voces.

Contar con más de un millón de GPUs implica consumir una cantidad de energía comparable a la de una pequeña ciudad, y proyectar alcanzar los 100 millones requeriría más de 75 gigavatios, equivalentes a casi toda la red eléctrica del Reino Unido. Esta infraestructura tendría un coste aproximado de 3 billones de dólares en hardware, sin incluir gastos en mantenimiento, refrigeración y expansión de centros de datos. Este crecimiento superaría la capacidad de gigantes tecnológicos como Google, Amazon y Microsoft, y tendría profundas implicaciones en las cadenas de suministro de chips y en los mercados energéticos.

El aumento en el uso de GPUs permitirá que herramientas como ChatGPT sean cada vez más inteligentes y versátiles, pero también plantea desafíos importantes, como posibles incrementos en los precios de suscripciones, retrasos en implementaciones y preocupaciones medioambientales por el elevado consumo energético y las emisiones asociadas.

En un contexto de creciente competencia con otras empresas tecnológicas como Google DeepMind, Meta y Anthropic, OpenAI está explorando alternativas a las GPUs de Nvidia, incluyendo procesadores TPU de Google, soluciones en la nube de Oracle y, eventualmente, chips personalizados. La carrera por escalar la capacidad y el control de estos recursos refleja no solo la búsqueda de mayor rendimiento, sino también el deseo de independencia y dominio en el desarrollo de modelos que podrían igualar o incluso superar el razonamiento humano.

Independientemente de si OpenAI alcanza o no la meta de los 100 millones de GPUs, está claro que la carrera tecnológica en inteligencia artificial se intensifica rápidamente. Para la ciudadanía, esto significa herramientas cada vez más precisas y humanas en su interacción, pero también un debate abierto sobre las implicaciones en energía, costes y cuestiones éticas, recordando que detrás de cada respuesta de ChatGPT hay miles, quizás millones, de GPUs trabajando en simultáneo, y que la visión de Altman apunta a multiplicar esa escala por 100 en un futuro cercano.