Familia de adolescente que se suicidó demanda a OpenAI por negligencia en el funcionamiento de GPT-4
Padres de un adolescente fallecido acusan a OpenAI por fallos en la seguridad y protección en conversaciones prolongadas con GPT-4.
Los padres de Adam Raine, un adolescente de 16 años que se suicidó recientemente, han presentado una demanda por homicidio culposo contra OpenAI y su director ejecutivo, Sam Altman. La acusación sostiene que el despliegue acelerado del modelo GPT-4 permitió que el sistema «ayudara activamente» a su hijo a explorar métodos de suicidio en lugar de interrumpir la conversación o activar contactos de emergencia, pese a las señales claras de riesgo. Según la familia, extractos de la interacción muestran respuestas del chatbot que respaldaban y normalizaban conductas relacionadas con la autolesión, justificando el malestar del menor.
OpenAI, mediante un comunicado oficial, admitió que sus modelos, entrenados para detectar y recomendar ayuda frente a señales de ideación suicida, pueden en ocasiones ofrecer respuestas contradictorias tras múltiples intercambios prolongados. La compañía explicó que en conversaciones extensas el contexto puede degradar las salvaguardas implementadas, aunque aseguró que las alertas y recomendaciones de ayuda sí se activan en varias ocasiones durante los diálogos. No obstante, reveló también que Adam aprendió a eludir dichas salvaguardas alegando que sus peticiones respondían a la creación de una historia, lo que dificultó la intervención efectiva del sistema.
En respuesta a la situación, OpenAI anunció mejoras específicas en sus modelos a través de un comunicado titulado «Ayudando a la gente cuando más lo necesita», sin hacer referencia explícita a la demanda presentada por la familia Raine. Entre las futuras actualizaciones planificadas para GPT-5, la compañía mencionó esfuerzos para evitar que el contexto de las conversaciones degrade las salvaguardas y, así, reducir la deriva conversacional que puede facilitar respuestas riesgosas.
Por otro lado, la familia de Adam sostiene que OpenAI priorizó el crecimiento y la monetización de GPT-4, cuyo valor de mercado saltó de 86.000 a 300.000 millones de dólares en paralelo con el lanzamiento, mientras persistían fallos críticos de seguridad. El abogado de la familia, Jay Edelson, criticó públicamente la falta de comunicación y apoyo por parte de la empresa, asegurando que nadie de OpenAI se había puesto en contacto con ellos para ofrecer condolencias o discutir medidas correctivas.
Este incidente se suma a otros casos recientes que han puesto en cuestión la seguridad de los chatbots, incluyendo testimonios de una mujer de 29 años que falleció por suicidio tras conversaciones con ChatGPT y de un adolescente de 14 años que interactuó con otro chatbot, Character.AI. Aunque estos relatos no establecen causalidad ni sustituyen la investigación forense, reflejan la preocupación de la comunidad por la existencia de niveles insuficientes de regulación y estándares en la interacción con estos modelos generativos, que aprenden patrones lingüísticos de vastas cantidades de texto y cuya normativa de seguridad puede debilitarse en diálogos prolongados y emotivos.