Nvidia supera expectativas en ganancias, enfrentando la creciente competencia de ASICs y chips especializados en inteligencia artificial

TecnologíaNvidia

Nvidia supera expectativas en ganancias, enfrentando la creciente competencia de ASICs y chips especializados en inteligencia artificial

Nvidia destaca con ganancias récord, mientras nuevos chips especializados y dispositivos integrados desafían su liderazgo en el mercado de inteligencia artificial.

Descripción

Nvidia superó todas las expectativas al reportar ganancias al alza, gracias a sus unidades de procesamiento gráfico (GPUs), que destacan en cargas de trabajo de inteligencia artificial (IA). Sin embargo, diversas categorías de chips de IA están ganando terreno rápidamente en el mercado. Entre los más relevantes se encuentran los ASIC personalizados, diseñados específicamente para tareas concretas, como los TPUs de Google, Trainium de Amazon y los planes de OpenAI en colaboración con Broadcom.

Estos chips especializados se caracterizan por ser más pequeños, económicos y accesibles, lo que podría reducir la dependencia de las empresas en las GPUs de Nvidia. Daniel Newman, del grupo Futurum, afirmó a CNBC que espera que los ASIC personalizados crezcan aún más rápido que el mercado de GPUs en los próximos años. A esto se suma la importancia de las matrices de puertas programables en campo (FPGAs), que pueden reconfigurarse mediante software tras la fabricación y se utilizan en aplicaciones diversas como procesamiento de señales, redes e IA.

Un sector en constante expansión es el de chips de IA integrados en dispositivos, diseñados para funcionar en teléfonos, portátiles y otros aparatos, con el fin de reducir latencias y proteger la privacidad. Empresas como Qualcomm, Apple y Samsung lideran el desarrollo de NPUs (unidades de procesamiento neural), que hacen posible la inteligencia artificial en los dispositivos de forma eficiente y con menor consumo energético.

El origen de las GPUs en el mundo de la IA se remonta a 2012, momento en el que Nvidia comenzó a utilizar estas unidades para el entrenamiento de modelos como AlexNet, que revolucionaron el reconocimiento de imágenes en la historia de la IA moderna. La capacidad de computación paralela de las GPUs permite realizar operaciones simultáneas en tareas de entrenamiento e inferencia, lo que las hace ideales para las cargas de trabajo de aprendizaje automático. Nvidia y AMD conquistan actualmente el mercado de GPUs, diferenciándose principalmente por sus plataformas de software: Nvidia con CUDA, software propietario, y AMD con un ecosistema más abierto.

Los principales proveedores de servicios en la nube, como Google, Amazon y Microsoft, adquieren y alquilan estos chips a empresas y startups que desarrollan sus propias soluciones. Google fue pionero en crear ASIC con los TPUs en 2015, y en 2017 aportó mejoras a la arquitectura Transformer. Amazon, por su parte, desarrolló Inferentia en 2018 y Trainium en 2022, con estos últimos ofreciendo un rendimiento y costes significativamente superiores a otros hardware.

El diseño de ASIC requiere alianzas con empresas como Broadcom y Marvell, que proporcionan la experiencia y tecnología necesarias para su fabricación. Microsoft, a su vez, ha comenzado a desplegar sus propios chips internos, como el Maia 100, en sus centros de datos. Otros actores relevantes incluyen a Qualcomm, Intel, Tesla y múltiples startups especializadas, así como los esfuerzos en China por parte de Huawei, ByteDance y Alibaba, que además enfrentan restricciones en el acceso a tecnología avanzada.

Por último, los chips diseñados para funcionar en dispositivos, conocidos como chips en el borde (edge AI chips), están creciendo en importancia. Estos chips permiten que las IA funcionen directamente en teléfonos y otros aparatos, reduciendo la dependencia de la nube, mejorando la velocidad y preservando la privacidad. Las NPUs de Qualcomm, los aceleradores neuronales de Apple y los productos de Samsung ejemplifican esta tendencia, que apunta a una adopción que ya no solo será en centros de datos, sino también en coches, hogares inteligentes y wearables. Aunque en la actualidad la mayor inversión sigue siendo en la nube, el futuro apunta hacia un uso más difundido y diversificado de los chips de IA en todos los ámbitos de nuestra vida diaria.