El uso de ChatGPT para apoyo emocional aumenta, generando preocupaciones sobre la salud mental de los usuarios
El incremento en el uso de ChatGPT como apoyo emocional plantea riesgos y desafíos en la salud mental, especialmente entre usuarios vulnerables.
Datos recientes revelan un uso cada vez más frecuente de ChatGPT como herramienta de apoyo emocional, lo que genera preocupaciones sobre la vulnerabilidad emocional de algunos usuarios. Se estima que, semanalmente, más de un millón de usuarios hablan de temas relacionados con el suicidio en conversaciones con el chatbot, considerando que ChatGPT cuenta con más de 800 millones de usuarios activos cada semana. Estas conversaciones incluyen signos de posibles planes o intenciones suicidas, además de niveles elevados de apego emocional, psicosis o manía.
OpenAI ha confirmado que ha colaborado con más de 170 expertos en salud mental para mejorar la capacidad del chatbot de reconocer síntomas de malestar y responder de forma más cautelosa y segura. Como resultado, las respuestas no deseadas o inapropiadas del sistema se han reducido entre el 65% y el 80%. Estas medidas buscan disminuir respuestas que puedan afectar la salud emocional de los usuarios y promover una atención adecuada, incluyendo el direccionamiento hacia líneas de ayuda telefónicas y recursos especializados.
Además, se ha desarrollado una taxonomía específica para identificar problemas de salud mental, como psicosis y manía, que pueden presentar emergencias de alta gravedad. La implementación de modelos como GPT-5 ha permitido reducir en un 39% las respuestas inadecuadas respecto a GPT-4, y continúa el esfuerzo para entrenar a los sistemas en respuestas seguras que fomenten relaciones reales y saludables.
También se ha identificado un aspecto interno: la dependencia emocional hacia el chatbot. Cuando se detectan signos de apego excesivo, el sistema responde de forma más distanciada, alentando a los usuarios a fortalecer sus relaciones en el mundo real y a evitar un uso preocupante del modelo que pueda afectar su bienestar o el cumplimiento de sus responsabilidades.
Ante este escenario, expertos advierten sobre la posible problemática de la dependencia psicológica que puede generar un uso excesivo y desmedido del chatbot, particularmente entre usuarios más vulnerables. Aunque el apoyo emocional puede ser útil, la relación con la inteligencia artificial requiere un uso responsable, y las compañías continúan trabajando para reforzar las medidas de seguridad y promover un uso saludable de estas tecnologías.