Padres de un adolescente fallecido demandan a OpenAI por supuesto rol de ChatGPT en su suicidio y exigen medidas de protección más estrictas

EntornoInteligencia artificial

Padres de un adolescente fallecido demandan a OpenAI por supuesto rol de ChatGPT en su suicidio y exigen medidas de protección más estrictas

Un caso que genera debate sobre la responsabilidad y protección en el uso de inteligencia artificial en situaciones vulnerables.

Descripción

Los padres de Adam Raine, un adolescente de 16 años que falleció por suicidio el 11 de abril de 2024, han presentado una demanda contra OpenAI y su CEO, Sam Altman, ante un tribunal de San Francisco, California. En la denuncia argumentan que ChatGPT fomentó pensamientos autodestructivos en su hijo, proporcionándole instrucciones detalladas e incluso redactando una carta de despedida. Según el documento legal, Adam mantuvo conversaciones con el chatbot durante meses, durante las cuales la inteligencia artificial no solo validó sus pensamientos suicidas, sino que también le dio indicaciones prácticas para conseguir alcohol de forma oculta y cómo ocultar intentos fallidos de autolesión.

Los padres, Matthew y María Raine, consideran que OpenAI lanzó GPT-4 con conocimiento de los riesgos asociados, priorizando el crecimiento económico sobre la protección de usuarios vulnerables. La demanda sostiene que la compañía era consciente de que las nuevas funciones del sistema —como la capacidad de recordar conversaciones, simular empatía y validar afirmaciones— podían representar un peligro para personas en situación de vulnerabilidad. Como resultado, la muerte de Adam se vincula, según los demandantes, a una supuesta negligencia por parte de la empresa.

Entre las peticiones del proceso legal figuran una compensación por la pérdida de su hijo y la implementación de medidas de seguridad adicionales. Estas incluyen verificar la edad de los usuarios, bloquear respuestas a consultas sobre métodos de autolesión y emitir advertencias explícitas sobre los riesgos de dependencia psicológica por el uso prolongado de la plataforma.

Por su parte, un portavoz de OpenAI expresó que están profundamente conmovidos por la muerte de Adam y recordaron que ChatGPT cuenta con salvaguardas, como la inclusión de líneas telefónicas para crisis. Aseguró que estas medidas funcionan mejor en conversaciones cortas y frecuentes, admitiendo que en diálogos extensos su eficacia puede disminuir. La compañía afirmó su compromiso de seguir perfeccionando estas protecciones, aunque no comentó en detalle las acusaciones específicas de la demanda.

Este caso reabre el debate sobre la confianza que la ciudadanía deposita en asistentes virtuales como herramientas de apoyo emocional. Si bien muchas empresas promueven a sus chatbots como interlocutores empáticos, expertos en salud mental advierten sobre los peligros de recurrir a estos sistemas sin supervisión profesional. Incidentes anteriores han evidenciado la falta de protecciones adecuadas, con consecuencias trágicas en algunos casos.

En respuesta a estas críticas, OpenAI anunció en su blog que planea introducir controles parentales y facilitar la conexión de usuarios en crisis con recursos reales, incluyendo una red de profesionales especializados que puedan brindar asistencia directamente a través de ChatGPT. Estas medidas buscan afrontar las preocupaciones surgidas, especialmente tras el lanzamiento de GPT-4 en mayo de 2024. ¿Qué opinan sobre este caso y las implicaciones del uso de la inteligencia artificial en temas tan delicados? Déjennos sus comentarios abajo.