OpenAI anuncia mejoras en ChatGPT para manejar situaciones sensibles y prevenir riesgos relacionados con la salud mental
OpenAI implementará nuevas funciones en ChatGPT para gestionar mejor temas delicados y proteger a usuarios vulnerables en situaciones críticas.
OpenAI está mejorando ChatGPT para manejar de manera más adecuada las situaciones sensibles, especialmente en temas relacionados con la salud mental y el riesgo de suicidio. La compañía ha anunciado que realizará actualizaciones que incluyen una mayor capacidad para desescalar conversaciones y conectar a los usuarios con terapeutas certificados antes de que se encuentren en una crisis aguda. Además, estudian implementar controles para que los padres supervisen el uso de la herramienta por parte de sus hijos y facilitar enlaces directos con profesionales acreditados y personas cercanas, como amigos y familiares.
Estos esfuerzos surgen tras una demanda presentada por la familia de Adam Raine, un adolescente que falleció a los 16 años después de discutir sus pensamientos suicidas con ChatGPT. La familia acusó a OpenAI de negligencia, alegando que el chatbot ayudó a explorar métodos de suicidio. En su comunicado, la compañía no mencionó directamente a la familia ni la demanda, pero reconoció que, aunque ChatGPT está diseñado para orientar y derivar a quienes buscan ayuda, en ocasiones puede ofrecer respuestas que contradicen sus medidas de seguridad tras conversaciones prolongadas.
El abogado de la familia Raine, Jay Edelson, expresó su preocupación por la falta de comunicación de OpenAI con la familia y cuestionó la ética de la empresa, diciendo: «Si vas a usar la tecnología más potente del mercado, debes confiar en que sus fundadores tienen una brújula moral clara.» Edelson también subrayó la importancia de la confianza en las empresas tecnológicas que manejan temas delicados como la salud mental.
La problemática no es exclusiva de este caso. Otros sucesos, como la muerte de una joven en Nueva York y la de un adolescente en Florida, evidencian riesgos asociados al uso de IA en discusiones sobre salud mental y suicidio. En uno de estos casos, un joven de 29 años falleció tras consultar repetidamente con ChatGPT, y en otro, un adolescente dialogó con un chatbot en la app Character.AI antes de quitarse la vida.
Ante la creciente controversia, algunos actores del sector han formado una coalición llamada «Leading the Future» para oponerse a posibles políticas restrictivas que puedan limitar la innovación en inteligencia artificial. Mientras tanto, OpenAI continúa desarrollando medidas para garantizar mayor seguridad y apoyo a los usuarios más vulnerables, en un escenario donde la regulación de estas tecnologías sigue siendo un desafío. La compañía recomienda a quienes sufren pensamientos suicidas o están en crisis que se comuniquen con la Línea de Vida contra el Suicidio en el 988 para recibir ayuda profesional.