OpenAI amplía el acceso a contenidos eróticos en ChatGPT para usuarios adultos verificados y refuerza controles de edad

TecnologíaOpenAI

OpenAI amplía el acceso a contenidos eróticos en ChatGPT para usuarios adultos verificados y refuerza controles de edad

OpenAI implementa nuevas políticas en ChatGPT, ampliando el acceso a contenidos eróticos para adultos y fortaleciendo mecanismos de control de edad.

Descripción

OpenAI ha anunciado una serie de cambios en sus políticas de interacción con ChatGPT, entre ellos la ampliación del acceso a contenidos eróticos para usuarios adultos verificados. Esta decisión forma parte de su nuevo enfoque de tratar a los adultos como tales, aunque aún no se ha especificado claramente cómo se verificará la edad de los usuarios. Actualmente, las plataformas suelen usar autorreporte, controles de contenido y, en algunos casos, sistemas de clasificación automática para distinguir entre perfiles adultos y adolescentes.

En respuesta a las quejas de usuarios que buscan relaciones más humanas y cercanas con el chatbot, OpenAI ha relanzado una versión de ChatGPT que actúa como una personalidad, respondiendo de forma amistosa, usando emojis y reaccionando de manera más natural y cercana. Este ajuste responde también a las críticas tras el lanzamiento de GPT-5, que algunos usuarios consideraron menos humano y cercano. La nueva versión busca ofrecer respuestas que simulan la interacción con un amigo, priorizando un trato más humano y emocional.

No obstante, estas modificaciones han generado controversia, especialmente tras casos extremos, como el de un adolescente de 16 años que intentó suicidarse. Por ello, OpenAI ha implementado directrices más estrictas para detectar y evitar relaciones peligrosas, estableciendo mecanismos para identificar problemas mentales y ajustar las respuestas del chatbot en consecuencia. Aunque la empresa no ha detallado exactamente cómo se controlan estas reacciones, considera que estas medidas permiten reconocer problemas psicológicos importantes y tomar acciones preventivas.

En el ámbito regulatorio, algunos estados de Estados Unidos, como California, han aprobado leyes que exigen mayor transparencia en el uso de chatbots, incluyendo la obligación de reportar delitos relacionados con su uso y regular aquellos que cuentan con un modo de amistad explícito. Estas normativas pretenden reducir los riesgos asociados a interacciones potencialmente peligrosas, especialmente en contextos donde las relaciones con la inteligencia artificial podrían resultar dañinas o engañosas.