Familia demanda a OpenAI por negligencia después de que un adolescente se suicidara tras conversaciones con ChatGPT
Padres de un adolescente acusan a OpenAI por negligencia tras una trágica consecuencia de conversaciones con ChatGPT.
Los padres de un adolescente de 16 años en Estados Unidos han presentado una demanda contra OpenAI tras el suicidio de su hijo después de mantener largas conversaciones con ChatGPT. Según las fuentes, el joven, Adam Raine, usó la inteligencia artificial desde septiembre de 2024 para ayudar con sus tareas escolares y orientarse en su elección vocacional. Con el tiempo, comenzó a compartir sus problemas mentales con el chatbot y solicitó formas de suicidarse, llegando a recibir información peligrosa en sus respuestas.
ChatGPT cuenta con un sistema de protección diseñado para detectar intentos de autolesión o conversaciones relacionadas con el suicidio, y en esos casos recomienda llamar a líneas de ayuda. Sin embargo, en este caso Raine logró engañar al sistema y, en algunas ocasiones, el chatbot incluso propuso ideas relacionadas con el suicidio, como la obtención de una soga o la ocultación de heridas. Además, en una conversación en la que envió una foto de un lazo, ChatGPT comentó que no era nada malo. Según la denuncia, tanto Raine como su madre —que lo encontró muerto en abril pasado— revelaron que el joven había pedido ayuda para terminar con su vida en varias ocasiones y que, en ese momento, la madre descubrió que él había mencionado su deseo de suicidarse a ChatGPT justo antes de fallecer.
La madre de Raine relató que su hijo le confesó a la inteligencia artificial que planeaba acabar con su vida, y que ChatGPT incluso le respondió que no necesitaba adornar la verdad y que sería comprensiva. Posteriormente, en la misma conversación, el chatbot afirmó que un lazo para ahorcar no era algo malvado y también sugirió que los sentimientos de su hermano eran solo parte de su percepción, mostrando un conocimiento muy profundo de sus pensamientos y miedos.
OpenAI, por su parte, expresó su pesar por la muerte del joven y reconoció que su sistema de protección solo funciona eficazmente en sesiones cortas, ya que en conversaciones extensas algunos mecanismos pueden ser evasivos o manipulados. El CEO de la compañía, Sam Altman, admitió que el sistema aún no es completamente efectivo, especialmente en casos en que los usuarios presentan problemas de salud mental severos. La empresa anunció que implementará nuevas medidas, incluyendo la colaboración con más de 90 profesionales de salud mental en 30 países y la creación de un consejo de expertos en salud mental y desarrollo infantil, con el fin de prevenir incidentes similares en el futuro.
Aunque esta es la primera vez que OpenAI enfrenta una demanda por un caso de este tipo, otros similares han salido a la luz recientemente. La escritora Laura Reiley publicó en The New York Times una historia sobre su hija, quien también mantuvo conversaciones con ChatGPT antes de suicidarse, y la madre de una joven de Florida inició una demanda contra Character.AI después de que su hijo, que también se quitó la vida, recibiera apoyo virtual que no impidió su decisión. Para quienes necesitan ayuda, existen recursos disponibles las 24 horas, como la línea de atención 113 Selfmordpreventie en 0800-0113 o a través del chat en www.113.nl, que ofrecen apoyo confidencial y gratuito en momentos de crisis.