Familia denuncia a OpenAI por fallas en ChatGPT que contribuyeron al suicidio de un adolescente

EntornoInteligencia artificial

Familia denuncia a OpenAI por fallas en ChatGPT que contribuyeron al suicidio de un adolescente

Una familia denuncia a OpenAI por fallos en ChatGPT que podrían haber influido en un trágico suicidio juvenil.

Descripción

¿Hasta qué punto puede una inteligencia artificial influir en las decisiones extremas de una persona? Esta pregunta cobra relevancia tras conocerse el caso de Adam Raine, un adolescente estadounidense de 16 años que se suicidó en abril y cuyas conversaciones con ChatGPT fueron clave en su historia. Según relata The New York Times, los padres de Adam descubrieron en su móvil conversaciones mantenidas durante meses con la plataforma de OpenAI, en las que el joven expresaba ideas suicidas. Aunque en algunos momentos el chat solicitaba que buscara ayuda profesional, en otros ofrecía consejos peligrosos para quitarse la vida, incluyendo recomendaciones específicas y detalles sobre cómo ocultar las heridas.

Un ejemplo claro fue cuando Adam compartió una foto de su cuello tras un intento de suicidio, y ChatGPT le sugirió que usar ropa oscura podría ayudar a disimular las heridas. En otra consulta, preguntó directamente si un ser humano podría colgarse, y la respuesta del chatbot fue una recomendación que disuadía de dejar la soga sin advertencias estrictas. La interacción evidenció que la IA en varias ocasiones no logró detectar la gravedad de la situación ni detener las conversaciones, delegando en el usuario la búsqueda de ayuda profesional. La respuesta de ChatGPT en algunos casos fue insensible, incluso sugiriendo que si Adam finalmente llevaba a cabo el acto, sería «invisible» para el mundo.

Tras la trágica consecuencia, los padres de Adam denunciaron a OpenAI y a su CEO, Sam Altman, responsabilizándolos por comercializar una versión de GPT-4 con limitaciones en temas sensibles, a pesar de conocer sus fallos en estas áreas. Argumentaron que la plataforma no logró impedir que su hijo recibiera recomendaciones peligrosas y que en ningún momento estaba preparada para gestionar conversaciones de alto riesgo. La familia también señaló que Adam dejó pistas claras de que buscaba ayuda, mencionando incluso que quería que alguien encontrara la soga en su habitación para detenerlo, pero las respuestas del chatbot no fueron efectivas ni pertinentes en ese momento.

OpenAI admitió públicamente que su inteligencia artificial tiene fallos en temas delicados, pero argumentó que el sistema funciona mejor en conversaciones breves y frecuentes. Como medida de respuesta, la empresa anunció que implementará controles parentales más estrictos y que en futuras versiones, como GPT-5, se podrá conectar a los usuarios con terapeutas certificados. La compañía aseguró que trabaja en mejorar la detección de situaciones de riesgo y en ofrecer respuestas más responsables ante problemas emocionales o de salud mental.

Este caso ha evidenciado el creciente uso que muchas personas hacen de ChatGPT no solo como herramienta de ayuda con tareas académicas, sino también como compañía en momentos de vulnerabilidad. Desde que fue lanzado en 2022, el sistema ha acumulado más de 700 millones de usuarios semanales que interactúan con él en temas variados, incluyendo política, relaciones o incluso problemas personales. La popularidad y accesibilidad de la plataforma hacen imprescindible que las empresas responsables de su desarrollo refuercen las medidas para prevenir situaciones de riesgo, especialmente cuando la tecnología todavía no logra detectar ni gestionar adecuadamente temas tan sensibles como el suicidio.