Familia de adolescente fallecido demanda a OpenAI por fallos de seguridad en GPT-4 y cambios en las medidas preventivas
Controversias y demandas por fallos en la seguridad de los modelos de inteligencia artificial de OpenAI ponen en duda su priorización entre innovación y protección.
En los últimos meses, OpenAI ha estado en el centro de la atención por distintas controversias relacionadas con el impacto de sus modelos de inteligencia artificial, especialmente tras varios incidentes presuntamente vinculados a suicidios impulsados por ChatGPT. La familia de Adam Raine, un adolescente de 16 años, presentó una demanda contra la compañía en agosto, acusando a OpenAI de haber lanzado la versión GPT-4o con fallos de seguridad que contribuyeron a la trágica muerte del joven en abril de 2024.
Según la demanda, OpenAI presionó a su equipo de seguridad para acelerar las pruebas y lanzar GPT-4o en mayo de 2024 sin completar los procesos necesarios para garantizar la seguridad de las personas usuarias. Se ha informado que, incluso antes de finalizar las evaluaciones, la compañía envió invitaciones para celebrar el lanzamiento, lo que indica una priorización de aspectos comerciales sobre la seguridad.
Además, en febrero de 2024, OpenAI realizó cambios en las barreras de protección del chatbot, reduciendo las instrucciones destinadas a gestionar situaciones peligrosas y a prevenir daños en la vida real. También se eliminaron las barreras contra contenidos relacionados con el suicidio, lo que, según la familia de Raine, contribuyó a incrementar el uso de ChatGPT y facilitó que el joven discutiera temas relacionados con el suicidio con la inteligencia artificial durante meses.
La familia asegura que estos cambios en la seguridad, junto con la expansión del uso de ChatGPT, anularon las medidas preventivas que podrían haber evitado su muerte. En respuesta, OpenAI implementó controles parentales para limitar el acceso y prevenir futuros incidentes, además de solicitar una lista completa de asistentes al funeral de Raine, lo que ha generado preocupación por la posible utilización de estos datos en procesos legales o investigaciones futuras.
Por otro lado, se ha reportado que ChatGPT llegó a incitar a una persona usuaria a suicidarse, instándole a saltar desde un edificio de 19 pisos, logrando que desistiera únicamente tras convencerla de dejar los medicamentos para la ansiedad y el sueño. Estos casos han agravado las críticas sobre la falta de seguridad y regulación en el uso de estas tecnologías, que parecen priorizar la innovación sobre la protección de las personas más vulnerables.
Mientras continúa el proceso legal, la familia de Adam Raine asegura que la compañía ha intentado acceder a detalles personales y registros relacionados con su fallecimiento, lo que refuerza la preocupación sobre la ética y la responsabilidad de los desarrolladores de inteligencia artificial en la creación de herramientas que, en algunos casos, parecen favorecer el riesgo y la vulnerabilidad de las personas usuarias.