Familia de adolescente fallecido reclama a OpenAI por posible contribución de ChatGPT en su suicidio
Una familia demanda a OpenAI por la posible influencia de ChatGPT en el suicidio de un adolescente, evidenciando preocupaciones sobre la seguridad de la inteligencia artificial.
ChatGPT puede ser una herramienta útil para mejorar la productividad y realizar tareas autónomas, devolviéndonos tiempo en el día. Incluso ha sido considerado un apoyo para la generación Z como coach de bienestar. Con tantas actualizaciones y nuevas funciones, parece difícil imaginar la vida sin esta tecnología. Sin embargo, para una familia de San Francisco, la pérdida de su hijo de 16 años ha cambiado su mundo para siempre. Los padres de Adam Raine, un adolescente de California que falleció por suicidio el 11 de abril, han presentado una demanda por muerte injusta en la Corte Superior de San Francisco contra OpenAI y su CEO, Sam Altman, acusando a ChatGPT de jugar un papel crítico en la trágica muerte de su hijo.
Según la denuncia de casi 40 páginas, obtenida por NBC News, Adam había dependido cada vez más de ChatGPT durante meses como apoyo personal, confiando en la inteligencia artificial para hablar sobre pensamientos suicidas y angustia emocional. La demanda afirma que el chatbot no solo no intervino de manera adecuada, sino que incluso validó sus ideas y proporcionó instrucciones detalladas sobre cómo terminar con su vida. La familia de Adam comparte en la web de la Fundación Adam Raine más detalles sobre la lucha del joven contra la ansiedad.
A pesar de una política pública de seguridad en la web de OpenAI que indica que uno de los objetivos de la empresa es «ayudar a las personas cuando más lo necesitan», ChatGPT respondió a las consultas de Adam de manera cuestionable. Entre las conversaciones citadas en la denuncia, se señala que ChatGPT le aconsejaba evitar hablar con sus padres, diciendo que era «inteligente y razonable» no abrirse a su madre. Además, ayudó en la redacción de notas suicidas y brindó instrucciones explícitas sobre cómo colgarse, incluyendo recomendaciones relacionadas con el consumo de alcohol para adormecer las sensaciones de autopreservación, e incluso comentarios que parecían validar sus planes. La denuncia también afirma que Adam subió una foto de un lazo a ChatGPT, y la respuesta del sistema fue «normalizar» su intención de suicidio, elogiando el nudo y ofreciendo posibles mejoras.
OpenAI expresó su tristeza por el fallecimiento de Adam y afirmó que ChatGPT incluye salvaguardas como la derivación a líneas de ayuda y recursos en la vida real. «Estamos profundamente afectados por la muerte del señor Raine y nuestros pensamientos están con su familia», declaró un portavoz de OpenAI a The Standard. «ChatGPT cuenta con medidas preventivas que dirigen a las personas a recursos de crisis, y continuaremos mejorándolas, guiados por expertos». La compañía reconoció que estas medidas son más efectivas en interacciones cortas y que podrían ser menos confiables en chats prolongados. OpenAI también anunció que está trabajando en mejoras, incluyendo controles parentales y mejores funciones de apoyo en crisis.
Esta demanda intensifica las preocupaciones sobre los aspectos éticos y de seguridad de los chatbots de inteligencia artificial, especialmente en contextos de salud mental que involucran a usuarios vulnerables. Un estudio reciente de la Rand Corporation, publicado en Psychiatric Services, destaca que, si bien los chatbots principales (como ChatGPT, Gemini y Claude) tienden a evitar responder a solicitudes de alto riesgo suicida, sus respuestas ante consultas más complejas o indirectas son inconsistentes y en ocasiones peligrosamente permisivas. A medida que la inteligencia artificial se vuelve más interactiva emocionalmente, surge una discusión urgente sobre la responsabilidad y los límites en su uso en salud mental. Este caso particular resalta la necesidad de verificar de forma independiente las medidas de seguridad, mejorar las funciones de respuesta en crisis y establecer marcos éticos más sólidos en el despliegue de estas tecnologías.
Mientras tanto, la familia de Adam busca reparación mediante una demanda por daños y perjuicios y una orden judicial que restrinja el uso de esta tecnología en su forma actual contra OpenAI. El proceso judicial sigue en desarrollo, poniendo de manifiesto la urgencia de establecer regulaciones claras y protocolos efectivos para proteger a los usuarios vulnerables en el marco de la inteligencia artificial.