Meta presenta Llama-4, un modelo multimodal con enfoque en integración y tamaños ajustados para hardware limitado
Meta revela Llama-4, su nuevo modelo multimodal enfocado en integración, tamaño reducido y compatibilidad con diferentes plataformas, marcando avances en IA.

El 29 de abril, Meta celebró su primera conferencia dedicada a sus innovadores modelos de lenguaje Llama-4, centrados en la multimodalidad y entrenados desde el inicio para integrar distintos tipos de datos. La presentación, transmitida en directo, estuvo acompañada por contenidos en el blog de Meta, donde se indicó que la compañía aún no ha anunciado un modelo específico para razonamiento o agentes integrados, y que centra sus esfuerzos en desarrollar versiones más pequeñas para hardware con capacidad limitada, como el proyecto interno «Little Llama».
Durante el evento, se destacó que Llama-4 cuenta con entrenamiento multimodal y una API compatible con OpenAI, lo que facilita su integración mediante diferentes herramientas y lenguajes de programación. Además, esta API es especialmente flexible, ya que permite cargar datos propios para entrenar modelos en Meta y descargar los pesos ajustados, ofreciendo un nivel de apertura superior al de otros servicios comerciales.
En cuanto a capacidades, Meta mostró interés en la recuperación de información y en modelos con una longitud de contexto de hasta 10 millones de tokens, lo que abrió el debate sobre la utilidad de técnicas como la recuperación de información y la base de vectores. El ejecutivo Ali Ghodsi, de Databricks, señaló que en muchos proyectos ya se utilizan modelos generativos, pero que las tecnologías de recuperación y los modelos embebidos siguen siendo significativamente más eficientes para tareas específicas.
El diálogo entre Zuckerberg y Ghodsi también abordó la eficiencia en el tamaño de los modelos. Zuckerberg mencionó el proyecto «Little Llama», que busca modelos más compactos, y comparó el rendimiento de los modelos de Meta con los Qwen3 de Alibaba, pequeños modelos que superan a algunos de mayor tamaño en ciertos benchmarks. Sin embargo, en la práctica, el público y las personas asistentes comprobaron una disminución importante en la participación en las sesiones posteriores, atribuida a una comunicación deficiente sobre actividades paralelas y contenido remoto.
Por otro lado, la interacción con Satya Nadella, CEO de Microsoft, resaltó los avances en generación de código, donde Microsoft informó que entre el 20 y 30% del código generado en sus sistemas es producido por IA, según el tipo y contexto. Nadella, con una visión clara del futuro, también destacó la importancia de los agentes inteligentes en el desarrollo de software y las expectativas de una integración más profunda entre las tecnologías de ambas compañías.
Finalmente, Zuckerberg expresó su satisfacción con los modelos Llama-4, aunque reconoció que queda camino por recorrer para mejorar capacidades como el razonamiento y la integración de agentes, áreas que Alibaba y otras compañías están abordando con modelos como Qwen3. La conferencia, que en su día inaugural reunió a unos 30.000 asistentes en línea, evidenció tanto el interés como las limitaciones en la comunicación y la participación del público remoto, dejando en suspenso la incertidumbre sobre el impacto real y la dirección futura de la estrategia de Meta en inteligencia artificial.