OpenAI actualiza sus políticas para limitar usos dañinos de ChatGPT y reforzar la protección de menores y contenidos peligrosos
OpenAI implementa nuevas políticas que refuerzan la seguridad, limitan usos dañinos y protegen a menores en sus productos de inteligencia artificial.
Desde el 29 de octubre, las políticas de uso de ChatGPT y otros productos basados en la tecnología de OpenAI se han actualizado, introduciendo nuevas medidas de protección y un disclaimer que clarifica la postura de la compañía respecto a ciertos usos prohibidos. Aunque algunos usuarios han interpretado estas reglas como una restricción total para obtener asesoramiento médico o legal, ChatGPT sigue ofreciendo cierta orientación, pero con límites y advertencias claras.
La principal novedad es una declaración de intenciones que busca distanciarse de usos potencialmente dañinos, como la creación de armas, la vigilancia biométrica sin consentimiento, la manipulación de opiniones públicas, las amenazas o los contenidos sexuales no consentidos. También se prohíbe específicamente emplear la inteligencia artificial para influir en menores, realizar perfiles biométricos o deducciones emocionales sin autorización previa.
Concretamente, las nuevas políticas prohíben el uso de la inteligencia artificial para el reconocimiento facial en bases de datos sin consentimiento, la identificación biométrica en espacios públicos en tiempo real y la creación de confusión sobre la autenticidad mediante imágenes o voces sintéticas. Además, se restringe el uso de ChatGPT en campañas políticas, actividades de lobbying, interferencias en procesos electorales y la generación de contenidos que puedan incitar a la violencia, amenazas o difamación.
También se han establecido limitaciones respecto a contenidos peligrosos o ilegales, incluyendo la promoción del terrorismo, el uso de armas, actividades delictivas o la difusión de material relacionado con abuso infantil, violencia sexual no consentida, autolesiones o trastornos alimenticios. Se protege especialmente a menores, limitando el acceso a contenidos inapropiados y sancionando conductas como la promoción de roles sexuales o violentos, así como el adoctrinamiento en comportamientos dañinos.
Un aspecto importante es la profundización en los mecanismos de protección frente a perfiles y evaluaciones de personas. Está terminantemente prohibido usar datos biométricos o características personales para la clasificación social, inferencias emocionales en contextos escolares o laborales, y la evaluación del riesgo de cometer delitos sin la aprobación expresa de OpenAI. También se limita la capacidad de las IA para emitir recomendaciones en ámbitos profesionales sin la intervención de expertos cualificados, como salud, legalidad o finanzas.
En relación con la salud mental, ChatGPT ahora detecta con mayor precisión cuando un usuario está en situación vulnerable, como depresión o pensamientos autodestructivos, gracias a la colaboración con más de 170 expertos en salud y a nuevos filtros que reducen en un 80% las respuestas inadecuadas en estos casos. En situaciones de riesgo, el sistema evita ofrecer diagnósticos o consejos peligrosos, promoviendo que el usuario busque ayuda profesional. Además, si la persona expresa señales de desesperanza o pensamientos paranoides, ChatGPT prioriza mensajes que refuercen la importancia de acudir a profesionales y a personas reales para recibir apoyo.
Estas nuevas políticas llegan tras meses de debate con gobiernos, investigadores y usuarios y, aunque en Europa se alinean con el reglamento de la AI Act, en la práctica representan un marco que busca mantener un equilibrio entre protección y libertad de expresión. Sin embargo, en foros digitales y comunidades en línea existen guías y técnicas sofisticadas para eludir estas restricciones, generando una competencia constante entre los mecanismos de seguridad y los intentos de burlar las mismas. En definitiva, OpenAI mantiene que está prohibido eludir sus medidas de seguridad, reforzando la necesidad de un uso responsable de sus tecnologías, especialmente en ámbitos delicados como la salud y la seguridad pública.