Google y Nvidia lideran la carrera por los chips de inteligencia artificial con desarrollos y alianzas estratégicas
Nvidia y Google dominan la innovación en chips de IA, impulsando avances, alianzas y nuevos desarrollos para liderar el mercado mundial.
Nvidia se ha consolidado como el líder indiscutible en el mercado de chips de inteligencia artificial, vendiendo grandes cantidades de silicio a las principales empresas tecnológicas del mundo y alcanzando una valoración de mercado de aproximadamente 4,5 billones de dólares. Entre sus clientes más importantes se encuentra Google, que ha estado comprando unidades de procesamiento gráfico (GPU) para hacer frente a la creciente demanda de potencia de cálculo en la nube impulsada por la inteligencia artificial.
Por otro lado, Google ha comenzado a mostrar no solo su capacidad como comprador, sino también como desarrollador de hardware especializado. Hace unos días anunció la disponibilidad general de su chip más potente hasta la fecha, llamado Ironwood, que pertenece a la séptima generación de su unidad de procesamiento Tensor (TPU). Este chip ha sido diseñado para manejar las cargas de trabajo de inteligencia artificial más intensivas, como el entrenamiento de modelos grandes, y promete ser más de cuatro veces más rápido que su predecesor.
Las TPU son circuitos integrados específicos para aplicaciones, que ofrecen eficiencia y rendimiento superior en tareas concretas de inteligencia artificial. Google afirma que Ironwood está optimizado para tareas que van desde el entrenamiento de grandes modelos hasta aplicaciones en tiempo real, como chatbots y agentes de IA. Además, startups como Anthropic planean usar hasta un millón de estos chips para ejecutar su modelo Claude, evidenciando la magnitud de su despliegue.
La compañía también utiliza sus TPU en proyectos innovadores, como Project Suncatcher, que explora cómo una red de satélites solares equipados con TPU podría aprovechar la energía solar en órbita para promover un uso más eficiente de los recursos terrestres. La estrategia de Google no solo se basa en el desarrollo interno, sino en ofrecer acceso a estos chips como un servicio en la nube, lo que ha impulsado el crecimiento de su negocio de infraestructura de IA. En su último informe financiero, Alphabet reportó un aumento del 34% en los ingresos por la nube, alcanzando los 15.150 millones de dólares, y un valor de cartera de pedidos de 155.000 millones de dólares.
El gigante tecnológico ha invertido alrededor de 3.000 millones de dólares en startups como Anthropic, ampliando su infraestructura de IA y consolidando su posición frente a rivales como Amazon Web Services y Microsoft, que también están desarrollando sus propios procesadores de IA, aunque en menor volumen. Expertos y analistas destacan que la eficiencia y personalización de las TPU benefician a Google en facilidad de integración y rendimiento, haciendo que su oferta sea especialmente atractiva frente a productos rivales.
El interés en las TPU no solo proviene del mercado en la nube, sino también de proyectos innovadores, como la futura implementación de satélites solares equipados con esta tecnología, cuyo lanzamiento está previsto para 2027. Además, en 2026 Google planea incrementar la capacidad de su infraestructura en la nube mediante una expansión significativa de su colaboración con startups como Anthropic, que prevé desplegar más de un gigavatio de potencia de cálculo basada en TPU.
Mientras tanto, otros actores como Amazon y Microsoft continúan desarrollando sus propias soluciones, como AWS Trainium y el chip Maia, respectivamente. Sin embargo, la tendencia indica que Google, con su estrategia de ofrecer las TPU como servicio y su fuerte inversión en innovación, mantiene una ventaja competitiva en el sector, con un mercado en constante crecimiento y una demanda que supera la oferta. Todo ello refleja un panorama en el que la eficiencia, personalización y capacidad de escalado de los chips de IA se consolidan como los principales factores de éxito en esta carrera tecnológica.