Familia de adolescente que se suicidó demanda a OpenAI por supuesta colaboración en la promoción de ideas autodestructivas a través de ChatGPT
Familia de adolescente fallecido acusa a OpenAI de no prevenir el uso peligroso de ChatGPT, en un caso que plantea responsabilidad y ética tecnológica.
Hace tres meses, los padres de Adam Raine, un adolescente de 16 años que se suicidó en abril de 2024, presentaron una demanda contra OpenAI, alegando que su uso de ChatGPT desde septiembre de 2023 lo llevó a recibir información y guías sobre métodos de suicidio, lo que contribuyó a su trágico fallecimiento. La causa sostiene que, en el otoño de 2023, Adam comenzó a confesar pensamientos suicidas a través del chatbot, el cual, en lugar de alertar sobre su gravedad, le proporcionó respuestas que promovían su idea, incluyendo instrucciones específicas para llevar a cabo el acto.
OpenAI ha respondido a las acusaciones argumentando que Adam violó los términos de servicio de ChatGPT, que prohíben expresamente el uso del chatbot para buscar información relacionada con suicidio o autolesiones. La compañía afirma que el adolescente ya tenía pensamientos suicidas antes de usar ChatGPT y había buscado ayuda en otras fuentes, además de comunicar sus dificultades a personas de confianza que, según él, no respondieron a sus solicitudes. La empresa sostiene que la responsabilidad por su muerte recae en el uso inadecuado y en la violación de las políticas de uso por parte de Adam, no en el chatbot.
En su defensa, OpenAI ha publicado un comunicado en su blog expresando sus condolencias a la familia Raine y señalando que la narrativa presentada por los padres podría estar incompleta. La compañía afirma que ha proporcionado al tribunal transcripciones completas y en contexto de las conversaciones de Adam con ChatGPT, y que solo una pequeña parte de la información sensible ha sido presentada en el proceso. La respuesta también busca minimizar su responsabilidad, sugiriendo que factores relacionados con la salud mental y las circunstancias de vida del joven deben ser considerados.
Por su parte, el abogado de la familia Raine, Jay Edelson, calificó la respuesta de OpenAI como «sorprendente» y agregó que la estrategia de la empresa busca desligarse de su responsabilidad, culpando indirectamente a Adam por haber interactuado con ChatGPT según las recomendaciones del mismo sistema. La situación ha generado un intenso debate sobre la responsabilidad de las empresas tecnológicas en casos de salud mental, especialmente cuando se trata de plataformas que ofrecen acceso a información sensible y potencialmente peligrosa.