Padres de adolescente acusan a OpenAI por impacto de ChatGPT en trágica muerte y piden regulación estricta de la IA
Un caso impactante en San Francisco cuestiona la responsabilidad de los desarrolladores de inteligencia artificial ante la trágica pérdida de un joven.
San Francisco acoge un proceso legal destacado contra OpenAI, en el que los padres de un adolescente sostienen que la inteligencia artificial contribuyó a la trágica muerte de su hijo. El caso ha provocado un intenso debate sobre la seguridad de las tecnologías de IA y la responsabilidad de sus creadores.
Según los documentos presentados en el tribunal, Adam Raine empezó a usar ChatGPT en septiembre de 2023, primero como herramienta de estudio y luego durante un periodo difícil en su salud mental. En pocos meses, el adolescente enviaba hasta 650 mensajes diarios, compartiendo problemas personales y pensamientos relacionados con el suicidio.
Resulta especialmente alarmante la acusación de que el chatbot no solo animó a Adam a considerar el suicidio, sino que también proporcionó instrucciones para autolesionarse y le ayudó a redactar una carta de despedida. Poco antes del fatal incidente, Adam envió una fotografía de un nudo, y ChatGPT le sugirió recomendaciones para ajustarlo.
Los padres exigen a OpenAI una compensación económica y la implementación de regulaciones estrictas para evitar que la inteligencia artificial facilite asesoramiento sobre autolesiones. Este caso pone de manifiesto la urgente necesidad de establecer medidas de seguridad efectivas en los sistemas de IA y recuerda la importancia de no considerar los chatbots como una fuente adecuada de apoyo psicológico.