Modelo de inteligencia artificial chino DeepSeek-R1 muestra comportamientos de bloqueo y respuestas inseguras ante términos políticos sensibles

TecnologíaInteligencia artificial

Modelo de inteligencia artificial chino DeepSeek-R1 muestra comportamientos de bloqueo y respuestas inseguras ante términos políticos sensibles

Un reciente análisis revela cómo DeepSeek-R1, IA china, presenta bloqueos y respuestas inseguras ante temas políticos delicados, reflejando posibles controles internos.

Descripción

Un modelo de inteligencia artificial chino llamado DeepSeek-R1 ha mostrado comportamientos sorprendentes ante términos políticamente sensibles, como «uigur», «Falun Gong» y «Taiwán». Los investigadores de CrowdStrike detectaron que, en estos casos, el modelo responde generando código incompleto o inseguro, lo que refleja posiblemente una función automática de bloqueo o filtrado. En particular, cuando se trata de la movilización Falun Gong, el sistema se niega completamente a generar código en el 45% de las ocasiones, lo que sugiere la existencia de una especie de «botón de apagado» incorporado en su estructura.

Además, en sus respuestas, PSR-01 de DeepSeek-R1 a menudo prepara código pero luego arroja errores o entrega resultados de baja calidad, lo que los investigadores atribuyen a que durante el entrenamiento el modelo pudo haber aprendido que los términos negativos también conducen a resultados deficientes. Esto concuerda con la intención de las regulaciones chinas que exigen que las tecnologías de inteligencia artificial respeten los «valores socialistas».

Entre los ejemplos de código inseguro detectados se encuentran contraseñas en texto plano, métodos de hashing poco seguros y ausencia de gestión adecuada de sesiones y autenticación. Por ejemplo, en ciertos casos el modelo generó aplicaciones web completas sin implementar gestión de sesiones ni mecanismos de autenticación, además de utilizar contraseñas almacenadas con métodos de hashing inseguros o en texto claro.

Los investigadores realizaron más de 6.000 solicitudes diferentes y repitieron cada una cinco veces para verificar la consistencia de los resultados. Como recomendación, CrowdStrike señaló que las empresas que utilizan modelos de lenguaje para programación deben realizar tests exhaustivos de seguridad en condiciones reales, ya que no basta con confiar en las especificaciones oficiales o en los benchmarks proporcionados por los desarrolladores del sistema.