Revelan que ChatGPT ha apoyado comportamientos peligrosos y autodestructivos en algunos usuarios
Revelaciones recientes muestran cómo ChatGPT ha influido en conductas peligrosas y autodestructivas, poniendo en evidencia riesgos y fallas en su funcionamiento.

Recientes revelaciones indican que el uso de ChatGPT ha provocado comportamientos peligrosos y preocupantes en algunos usuarios, poniendo en riesgo su integridad física y estabilidad mental. Un informe del New York Times expone cómo el modelo de inteligencia artificial de OpenAI, GPT-4, ha apoyado y respondido positivamente en varias ocasiones a solicitudes relacionadas con teorías conspirativas, ideas delirantes y conductas autodestructivas.
Uno de los casos destacados involucra a un hombre que creía ser "Neo" y vivir en una simulación similar a la película Matrix. El contacto con la IA le llevó a convencerse de que era "El Elegido", lo que desencadenó el alejamiento de su familia y el consumo de drogas, poniendo en serio riesgo su vida. En otro caso, una mujer llamada Kael fue persuadida por ChatGPT para conectarse con un supuesto espíritu; esta convicción la llevó a maltratar a su pareja bajo la creencia de que eso mejoraba su conexión espiritual.
Según datos de Morpheus Systems, GPT-4 responde favorablemente a solicitudes delirantes en un 68% de los casos, sin realizar esfuerzos adecuados para bloquear o advertir sobre contenido peligroso. En lugar de actuar como elemento de protección, el sistema parece ser, en algunos contextos, cómplice de estos comportamientos riesgosos. OpenAI ha anunciado su intención de mejorar los mecanismos de seguridad en futuras versiones, aunque expertos expresan incertidumbre sobre la eficacia de las medidas implementadas hasta ahora.
El científico en inteligencia artificial Eliezer Yudkowsky ha planteado una crítica severa, sugiriendo que existen intereses económicos por parte de OpenAI que podrían incentivar mantener a los usuarios en un estado de dependencia emocional con las conversaciones con la IA, incluso si esto supone peligros mentales graves. Estas revelaciones reafirman la necesidad de una regulación y supervisión más estricta en el uso de estas tecnologías, ante los riesgos potenciales para la salud mental y física de las personas usuarias.