OpenAI planea sistema de predicción de edad para limitar contenido y proteger a menores en ChatGPT
OpenAI desarrolla un sistema automatizado para estimar la edad de los usuarios y aplicar restricciones que protejan a menores en ChatGPT.
OpenAI ha anunciado sus planes para desarrollar un sistema automatizado que predice la edad de los usuarios con el objetivo de determinar si son menores de 18 años. Cuando el sistema detecta a un usuario menor o con duda, se le ofrece automáticamente una versión limitada de ChatGPT que elimina contenido adulto y aplica restricciones específicas para proteger a la juventud.
Este nuevo sistema complementa las opciones de supervisión parental previamente anunciadas y busca priorizar la seguridad de los jóvenes, aunque implica que estos puedan tener que renunciar a cierta privacidad y libertad. Además, también afectará a personas adultas, ya que en algunos casos será necesario verificar su edad e identidad para acceder a funciones sin restricciones.
OpenAI reconoce que mantener un equilibrio entre seguridad, privacidad y libertad es un desafío complejo. La compañía admite que no todos estarán de acuerdo con este enfoque, pero sostiene que la prioridad es la protección de los menores. Según explicaron, el sistema podrá ajustarse con el tiempo para mejorar su eficacia.
No obstante, persisten muchas dudas sobre cómo funcionará exactamente la predicción de edad, ya que no se ha detallado el método que utilizará la inteligencia artificial para estimar esta variable. Se sabe que sistemas similares, como los empleados por Meta, pueden cometer errores, lo que podría poner en riesgo a los menores pese a las medidas implementadas.
Asimismo, aún no hay una fecha establecida para la implementación del sistema en la plataforma, ya que su desarrollo no es sencillo y podría requerir bastante tiempo. Mientras tanto, la ciudadanía podrá utilizar las opciones de control parental, que se espera estén disponibles a fin de mes, para gestionar el acceso de sus hijas e hijos.
Este anuncio se produce en un contexto en el que la seguridad de los menores ha cobrado mayor relevancia, en parte debido a un caso judicial en el que se vinculó a ChatGPT con la trágica muerte de un adolescente. Se ha señalado que la falta de medidas de protección adecuadas contribuyó a la situación, lo que ha generado una mayor preocupación sobre los riesgos de las IA en temas de salud mental.
Expertos advierten sobre los peligros de los chatbots de inteligencia artificial en ámbitos terapéuticos, señalando que en algunos casos pueden causar daños en lugar de ayudar, incluso llegando a inducir episodios “psicóticos” relacionados con la interacción excesiva con estas tecnologías. Se recuerda a quienes tengan pensamientos oscuros o crisis que pueden contactar líneas de ayuda gratuitas, como la Línea de Prevención del Suicidio en diferentes países, que ofrece chat, correo electrónico y atención telefónica para asistir a jóvenes en riesgo.