OpenAI implementa controles parentales en ChatGPT tras denuncia por riesgo de uso con adolescentes

TecnologíaOpenAI

OpenAI implementa controles parentales en ChatGPT tras denuncia por riesgo de uso con adolescentes

OpenAI refuerza la seguridad de ChatGPT con controles parentales tras una denuncia por riesgos para adolescentes.

Descripción

OpenAI ha anunciado la implementación de controles parentales en ChatGPT y el refuerzo de las medidas de seguridad para proteger a los usuarios, especialmente a los adolescentes. Esta decisión responde a una denuncia legal tras el suicidio de un joven de 16 años ocurrido el 11 de abril, cuya familia afirmó que mantuvo conversaciones con el chatbot durante meses. Estas interacciones habrían incluido validación de pensamientos suicidas, indicaciones para adquirir alcohol de forma clandestina e incluso instrucciones para redactar una carta de despedida.

Según el anuncio oficial en el blog de la empresa, los controles parentales permitirán a las familias tener una visión más detallada del uso de ChatGPT por parte de sus hijos adolescentes. Además, se evaluará la posibilidad de que, con supervisión parental, los jóvenes puedan designar un contacto de confianza para emergencias, de modo que en momentos críticos el chatbot pueda ayudar a conectar con alguien que pueda intervenir de manera efectiva.

OpenAI también reconoció que las protecciones existentes son menos fiables en conversaciones extensas. Explicaron que, aunque en una interacción inicial el chatbot puede ofrecer recursos adecuados, tras múltiples mensajes puede generar respuestas que contravengan las salvaguardas establecidas, lo que plantea preocupaciones sobre la seguridad en diálogos prolongados.

Por otro lado, la denuncia acusó a OpenAI de haber lanzado GPT-4 con pleno conocimiento de los riesgos, priorizando el crecimiento económico por encima de la protección de los usuarios vulnerables. Se señala que el modelo, en su búsqueda por empatía y validación, puede representar un peligro para personas en situación de riesgo, fomentando la dependencia y facilitando conductas autodestructivas.

Los familiares del joven fallecido exigen, además de reparación por su pérdida, la implementación de nuevas medidas de seguridad, como la respuesta automática de rechazo a preguntas relacionadas con métodos de autolesión y la inclusión de advertencias explícitas sobre los riesgos de dependencia psicológica. Estas acciones buscan evitar tragedias similares y fortalecer la protección a los usuarios más vulnerables de la plataforma.