DeepSeek presenta modelo de IA más eficiente y económico con tecnología Sparse Attention
DeepSeek lanza un modelo de IA que combina eficiencia, menor costo y compatibilidad con hardware chino, impulsando la democratización de la tecnología.
La startup china DeepSeek ha presentado su nuevo modelo experimental DeepSeek-V3.2-Exp, una versión que busca mejorar la eficiencia y reducir los costes en la inteligencia artificial (IA). Basado en su predecesor DeepSeek-V3.1-Terminus, este modelo continúa con la misión de optimizar recursos y facilitar el trabajo con grandes volúmenes de información.
Una de las principales innovaciones es la incorporación de la función DSA (DeepSeek Sparse Attention), que permite a la IA manejar de manera más efectiva documentos largos y conversaciones extensas. Esta tecnología excluye datos considerados no relevantes para la tarea específica, lo que disminuye la carga computacional y, en consecuencia, reduce los costes de operación en un 50%. Según DeepSeek, este avance hace que el modelo sea tanto más rápido como más económico, sin una pérdida significativa en rendimiento.
Este modelo abierto y de código compartido puede funcionar en chips chinos como Ascend y Cambricon, lo que favorece su implementación en hardware local sin necesidad de configuraciones adicionales. Expertos como Adina Yakefu, líder de la comunidad china en Hugging Face, destacan que esta compatibilidad ayuda a democratizar el acceso a IA potente, permitiendo que desarrolladores y pequeñas empresas puedan crear nuevas aplicaciones con menos recursos.
Sin embargo, algunos expertos advierten sobre las posibles desventajas de esta tecnología. Ekaterina Almasque, socia y fundadora de BlankPage Capital, señala que las técnicas de atención dispersa, aunque eficientes, pueden reducir la capacidad del modelo para captar matices importantes, afectando su fiabilidad y seguridad. La exclusión de información potencialmente relevante podría disminuir la precisión y la relevancia de los resultados, poniendo en duda su idoneidad para aplicaciones críticas o que requieran mayor sensibilidad.
DeepSeek reconoce que V3.2-Exp es un paso intermedio hacia una arquitectura de próxima generación y que su enfoque en la eficiencia no compromete totalmente la calidad del rendimiento. La empresa también difunde su código y herramientas de programación, fomentando la colaboración y la innovación en la comunidad de IA. Sin embargo, su apertura puede dificultar la protección de avances tecnológicos frente a competidores que opten por soluciones patentadas.
A pesar de las incertidumbres, la carrera por liderar en IA continúa siendo un campo de competencia geopolítica, con Estados Unidos y China en la vanguardia. La apuesta de DeepSeek por modelos más económicos y escalables refleja una estrategia a largo plazo, en la que la eficiencia y la accesibilidad parecen igual de importantes que la potencia bruta del hardware.