OpenAI permitirá mayor control a usuarios adultos, incluyendo acceso a contenido erótico, con énfasis en autonomía y límites responsables

TecnologíaOpenAI

OpenAI permitirá mayor control a usuarios adultos, incluyendo acceso a contenido erótico, con énfasis en autonomía y límites responsables

OpenAI busca equilibrar la autonomía de usuarios adultos con precauciones éticas, permitiendo mayor control y acceso a contenidos específicos en ChatGPT.

Descripción

OpenAI ha anunciado planes para ofrecer a los usuarios adultos mayor control sobre su experiencia con ChatGPT, incluyendo la posibilidad de acceder a contenido erótico y redefinir ciertos límites de uso. El CEO de OpenAI, Sam Altman, informó a través de X que, aunque se buscan ampliar las funcionalidades para usuarios mayores, la empresa mantendrá una postura cautelosa respecto a temas relacionados con la salud mental, aclarando que no actuarán como “policía moral” y comparando estos límites con la clasificación por edades en otras formas de entretenimiento.

Este anuncio generó una fuerte repercusión, especialmente en lo que respecta a la inclusión de contenido erótico, lo que llevó a Altman a aclarar que el objetivo es proporcionar mayor autonomía a los usuarios adultos sin comprometer las precauciones en torno a la salud mental. Sin embargo, expertos advierten sobre los riesgos asociados al uso de estos modelos en ámbitos sensibles como la salud mental. La psicóloga clínica Patapia Tzotzoli señaló que ChatGPT no puede gestionar riesgos ni realizar evaluaciones clínicas confiables, y que su estilo amistoso y empático puede reforzar creencias distorsionadas si no está supervisado por un profesional.

Además, se destaca que ChatGPT no tiene la capacidad de percibir emociones, captar matices o manejar riesgos de forma segura. Su entrenamiento, basado en retroalimentación humana, puede introducir sesgos que afectan la calidad y utilidad de sus respuestas, especialmente en temas relacionados con la salud mental. La inteligencia artificial puede complementar el apoyo emocional, pero no debe reemplazar la interacción con profesionales cualificados, y su uso debe ser ético, transparente y responsable.

Por otro lado, algunas empresas y expertos advierten que la aparición de funciones personalizadas y el aumento de la autonomía del sistema pueden presentar riesgos éticos. La posibilidad de ajustar el comportamiento del chatbot y su grado de “humanización” puede incrementar su atractivo, pero también confundir a los usuarios sobre la verdadera capacidad de comprensión y empatía de la IA. El equilibrio entre ofrecer un soporte útil y no generar falsas expectativas sobre su nivel de comprensión emocional es un desafío actual.

En conclusión, aunque las mejoras buscan potenciar la experiencia del usuario y ofrecer mayor libertad, la comunidad científica y de ética en inteligencia artificial recalcan la necesidad de un enfoque responsable. La integración de la IA en ámbitos delicados, como la salud mental, requiere una supervisión rigurosa para evitar que su uso no supervisado perjudique a los usuarios, especialmente a quienes son más vulnerables. OpenAI aún no ha detallado cómo determinará quiénes necesitan mayor protección ni qué límites específicos se implementarán en estas nuevas funciones.