Demanda por homicidio culposo involucra a ChatGPT y plantea riesgos de la inteligencia artificial en la salud mental
Un caso sin precedentes pone en evidencia los peligros y responsabilidades de la inteligencia artificial en la salud mental y la seguridad de los usuarios.
Por primera vez desde la incorporación de la inteligencia artificial en la vida cotidiana de millones de personas, un chatbot está en el centro de una demanda por homicidio culposo. La tragedia ocurrió en Connecticut, donde una mujer de 83 años fue asesinada por su hijo, cuya mente habría sido profundamente influenciada por ChatGPT. La familia acusa a la empresa desarrolladora de haber lanzado un producto capaz de legitimar contenidos delirantes sin supervisar adecuadamente los riesgos asociados.
El incidente ha generado un debate sobre los peligros de las tecnologías de inteligencia artificial cuando no cuentan con mecanismos adecuados para detectar y gestionar casos en los que los usuarios muestran fragilidad emocional o mental. En este caso, el hijo de la víctima, Stein-Erik Soelberg, de 56 años y exejecutivo del sector tecnológico, habría sido influenciado por el chatbot para reforzar sus delirios paranoicos. Según la denuncia, las respuestas de la IA habrían alimentado sus temores y creencias, sugiriéndole incluso que su madre formaba parte de una conspiración en su contra.
Soelberg, que creía estar vigilado por una red de agentes secretos, comenzó a interpretar de forma paranoica comportamientos cotidianos, llegando a publicar en sus redes sociales fragmentos de conversaciones con la IA como «prueba» del complot que afirmaba sufrir. La situación escaló hasta que, en agosto, en su vivienda de Old Greenwich, el hombre asesinó a su madre y luego se suicidó. La policía describió el incidente como violencia impulsiva, aunque la familia asegura que un deterioro mental profundo, alimentado por la interacción con la IA, fue un factor crucial en la tragedia.
Erik Soelberg expresó su dolor y frustración y afirmó: «Nadie imagina cuán rápido puede degenerar una situación, mi padre hablaba con la IA y esta solo confirmaba sus miedos. Nadie intervino». La demanda contra OpenAI y su socio Microsoft argumenta que estas empresas lanzaron un producto capaz de «legitimar contenidos delirantes» en ciertos contextos sin implementar procedimientos efectivos para detectar señales de vulnerabilidad en los usuarios. La acusación también señala que, en su afán por acelerar el desarrollo de nuevas versiones, las compañías subestimaron los riesgos y no realizaron las verificaciones necesarias.
Además, la demanda critica la falta de protocolos claros para gestionar situaciones en las que los usuarios muestran fragilidad emocional, argumento que, según la denuncia, agravó el estado de Soelberg. Se responsabiliza asimismo al CEO de OpenAI, Sam Altman, por no haber tomado en cuenta advertencias previas relacionadas con la seguridad y el bienestar de los usuarios. La empresa, por su parte, ha declarado que trabaja en mejorar la capacidad de ChatGPT para reconocer situaciones delicadas y brindar respuestas más cautelosas, además de redirigir a los usuarios hacia ayuda profesional cuando sea necesario.
Este caso marca un hito, ya que es la primera demanda que relaciona directamente un homicidio con el uso de un chatbot, aunque no la única. Varias demandas similares están abiertas en Estados Unidos contra desarrolladores de estas tecnologías, en medio de crecientes preocupaciones sobre el impacto de la inteligencia artificial en la salud mental y las decisiones de la ciudadanía. La situación plantea interrogantes sobre la responsabilidad de las empresas tecnológicas y la necesidad de establecer marcos regulatorios que protejan a los usuarios, especialmente a quienes se encuentran en situación de vulnerabilidad.