OpenAI implementará controles parentales y alertas de crisis en ChatGPT para protección de menores

TecnologíaOpenAI

OpenAI implementará controles parentales y alertas de crisis en ChatGPT para protección de menores

OpenAI introduce controles parentales y alertas para mejorar la seguridad de los menores en el uso de ChatGPT, fortaleciendo la protección y supervisión eficaz.

Descripción

OpenAI anunció que pronto ofrecerá a los padres un mayor control sobre el uso de ChatGPT por parte de sus hijos adolescentes. En un post publicado en su blog, la compañía detalló que en aproximadamente un mes los padres podrán vincular sus cuentas con las de sus hijos, establecer reglas específicas según la edad para las respuestas del chatbot y gestionar funciones como la memoria y el historial de chat. Esta iniciativa responde a la creciente preocupación por la seguridad de los menores en la interacción con la inteligencia artificial.

Además, OpenAI habilitará una función que permitirá a los padres recibir alertas si ChatGPT detecta que un menor atraviesa un momento de angustia aguda. Esta función, la primera que notifica a un adulto sobre conversaciones peligrosas, busca intervenir tempranamente en situaciones de crisis, ya que algunos padres han expresado su inquietud por la limitada capacidad del chatbot para desactivar por sí mismo estas situaciones.

El anuncio llega una semana después de que OpenAI enfrentara una demanda por la muerte de un adolescente, en la que se argumentaba que ChatGPT había contribuido al suicidio del joven. Aunque la empresa no mencionó al adolescente en particular en su comunicado, subrayó que en respuesta a casos como este ha implementado nuevas medidas de seguridad para fortalecer las salvaguardas en conversaciones prolongadas y mejorar la detección de riesgos, incluyendo la identificación de autolesiones o posibles daños a terceros mediante modelos de razonamiento más cuidadosos.

En particular, OpenAI está trabajando para que, en diálogos extensos, las respuestas de ChatGPT mantengan los estándares de seguridad y empatía, evitando que se generen respuestas perjudiciales con el tiempo. La compañía anunció también que en los próximos 120 días las conversaciones sensibles o que muestren signos de angustia serán canalizadas a modelos de razonamiento más robustos, que analizan el contexto con mayor profundidad antes de responder.

Estas iniciativas forman parte de un esfuerzo mayor por reforzar las medidas de seguridad, tras reconocer que GPT-4 en ocasiones no logra detectar completamente signos de delirio o dependencia emocional. La llegada de GPT-5 en agosto también incluyó nuevas restricciones destinadas a prevenir respuestas dañinas, en línea con el compromiso de OpenAI por proteger a sus usuarios, especialmente a los menores.

Tras estos anuncios, el abogado Jay Edelson, que representa a los padres del adolescente fallecido, criticó duramente a OpenAI. Considera que la compañía debería afirmar claramente que su tecnología es segura o retirarla del mercado por completo, en lugar de ofrecer promesas vagas. Desde OpenAI defendieron sus medidas de seguridad, señalando que la implementación de nuevas salvaguardas y la consulta con expertos en salud mental y desarrollo infantil buscan garantizar un uso responsable de la tecnología.