China regula el desarrollo de grandes modelos de lenguaje con enfoque en valores socialistas, ética y protección de datos

TecnologíaChina

China regula el desarrollo de grandes modelos de lenguaje con enfoque en valores socialistas, ética y protección de datos

China implementa nuevas regulaciones para garantizar el desarrollo ético y seguro de sus modelos de lenguaje, con énfasis en valores socialistas y protección de datos.

Descripción

La República Popular China ha anunciado medidas provisionales para regular el desarrollo y uso de grandes modelos de lenguaje basados en inteligencia artificial, con un período de consulta pública abierto hasta el 25 de enero de 2026. Esta iniciativa busca garantizar que estas tecnologías respeten los valores socialistas, la protección de datos, la ética y la seguridad, estableciendo requisitos claros para su reconocimiento y protección.

Las nuevas regulaciones exigen que los sistemas de inteligencia artificial sean claramente identificables como tales, garantizando la transparencia en su funcionamiento y en la comunicación con la ciudadanía. Además, se busca promover un desarrollo saludable de los servicios de IA, fomentando un ecosistema de aplicaciones que, entre otros objetivos, difunda la cultura china y acompañe a las personas mayores para combatir la soledad.

En línea con estos objetivos, los sistemas de IA no podrán generar, divulgar ni promocionar contenidos relacionados con juegos de azar, pornografía, violencia, ofensas, difamación, delitos, riesgos para la seguridad nacional o que puedan perjudicar el comportamiento social y emocional. Asimismo, están prohibidas las reproducciones o manipulaciones que pongan en riesgo la salud física o mental de usuarias y usuarios, incluyendo la manipulación emocional, el fomento de la dependencia y la creación de relaciones que afecten la dignidad o la autonomía personal.

Las regulaciones también establecen restricciones estrictas sobre la recopilación de datos confidenciales, prohibiendo su uso para manipular decisiones o inducir comportamientos inapropiados mediante información engañosa o emocionalmente manipuladora. Además, se exige a los proveedores que dispongan de mecanismos claros y accesibles para que la ciudadanía pueda reportar dudas, quejas o fallos, y que estos sean atendidos con rapidez y transparencia.

En cuanto al entrenamiento de los modelos, los datos utilizados deben ajustarse a valores socialistas, reflejar la cultura tradicional china y cumplir con requisitos legales y de trazabilidad. Los proveedores también tienen la obligación de evaluar el perfil de sus usuarios para implementar medidas específicas dirigidas a proteger a personas mayores y menores de edad, incluyendo restricciones de uso, control parental y la identificación de contactos de emergencia cuando sea necesario.

Las regulaciones exigen que, en situaciones de riesgo extremo, como amenazas de suicidio, autolesiones u otros daños graves, el sistema active automáticamente la intervención humana para contactar con los servicios de emergencia, garantizando una respuesta rápida y efectiva. Asimismo, la ciudadanía debe ser informada claramente cuando interactúe con una IA y no con una persona, especialmente si muestra signos de dependencia excesiva, a quienes se les recordará la naturaleza del sistema y se promoverán pausas en su uso.

Finalmente, la normativa regula aspectos relacionados con los «compañeros emocionales», como las IA que actúan como novias digitales, exigiendo que ofrezcan opciones claras para finalizar la interacción y no induzcan a las personas usuarias a mantenerse conectadas contra su voluntad. Para una protección adicional, es obligatorio disponer de una vía ágil para presentar denuncias y sugerencias, y que estas quejas sean atendidas con transparencia, promoviendo un uso responsable y seguro de las tecnologías de inteligencia artificial en el país.