OpenAI integrará la infraestructura en la nube de Google para potenciar ChatGPT y ampliar su capacidad de procesamiento
OpenAI amplía su infraestructura en la nube, incorporando Google Cloud para fortalecer ChatGPT y satisfacer la creciente demanda de procesamiento.
OpenAI anunció este miércoles que planea utilizar la infraestructura en la nube de Google para su popular asistente de inteligencia artificial ChatGPT. Esta decisión refleja un aumento en su capacidad de procesamiento, ya que busca satisfacer una demanda creciente después de depender inicialmente en exclusiva de Microsoft para sus recursos en la nube.
La relación entre ambas compañías ha evolucionado desde entonces, con Microsoft llegando a calificar a OpenAI como un competidor el año pasado. Sin embargo, continúan comercializando herramientas de inteligencia artificial para desarrolladores y ofreciendo suscripciones a diferentes empresas. En este contexto, OpenAI ha incorporado a Google en su lista de proveedores, especificando que ChatGPT y su interfaz de programación (API) harán uso de Google Cloud Platform, además de los servicios de Microsoft, CoreWeave y Oracle.
Este anuncio representa un importante logro para Google, cuya unidad de nube es más joven y pequeña en comparación con Amazon y Microsoft, y que además mantiene una relación comercial con Anthropic, una compañía fundada por exejecutivos de OpenAI. La infraestructura de Google se operará en Estados Unidos, Japón, Países Bajos, Noruega y Reino Unido.
El año pasado, Oracle anunció una asociación con Microsoft y OpenAI para ampliar la plataforma de IA en Microsoft Azure hacia Oracle Cloud Infrastructure, proporcionando a OpenAI mayor capacidad de cómputo. En marzo, OpenAI firmó un acuerdo de colaboración con CoreWeave por cinco años, en una inversión cercana a los 12.000 millones de dólares.
Por su parte, Microsoft afirmó en enero que cambiaría a un modelo en el que tendría prioridad para ofrecer recursos de computación a OpenAI, en lugar de ser su proveedor exclusivo. No obstante, Microsoft continúa manteniendo el control exclusivo sobre las interfaces de programación de OpenAI.
Sam Altman, CEO y cofundador de OpenAI, comentó en abril que la compañía, que utiliza unidades de procesamiento gráfico de Nvidia para potenciar sus grandes modelos de lenguaje, enfrentaba limitaciones de capacidad. En su mensaje en la plataforma X, solicitó GPU en bloques de 100.000 unidades de capacidad, indicando su necesidad urgente de recursos adicionales. Además, Reuters informó en junio que OpenAI planeaba incorporar capacidad en la nube de Google para expandir su infraestructura.