Usuarios emplean ChatGPT como apoyo emocional y en la gestión del estrés, según estudio de uso en 2024

TecnologíaChat GPT

Usuarios emplean ChatGPT como apoyo emocional y en la gestión del estrés, según estudio de uso en 2024

En 2024, millones de personas utilizan ChatGPT para apoyo emocional, enfrentando estrés y mejorando su bienestar, aunque con aspectos aún en debate.

Descripción

Desde octubre de 2024, Yildiz Celie, una periodista de 45 años, ha incorporado el uso de ChatGPT en su vida cotidiana, inicialmente para consultas sobre nutrición y más tarde como apoyo emocional tras una ruptura. La mujer descubrió que las respuestas de la inteligencia artificial le ayudaban a ordenar sus pensamientos y afrontar momentos difíciles, considerándola una especie de «salida ideal» para sobrellevar el estrés emocional.

La popularidad de las herramientas de inteligencia artificial generativa como ChatGPT se ha disparado en los últimos años. Según datos de OpenAI, en 2024 unas 400 millones de personas las usan semanalmente a nivel global, con un crecimiento notable en edades jóvenes. En España, el 23% de la población ha utilizado estos programas durante 2024, alcanzando un 48,7% en el grupo de 18 a 25 años.

Estos sistemas no solo generan contenido textual, imágenes o vídeos, sino que cada vez se utilizan más como ayuda para el bienestar mental. Estudios recientes muestran que las tres principales razones para su uso son: apoyo profesional o personal, terapia y compañía. Usuarios como Wessel Jurgens, que padece fatiga por enfermedad y afronta largas listas de espera en el sistema sanitario tradicional, destacan que ChatGPT está siempre disponible para brindar consejos prácticos y aliviar momentos de ansiedad o estrés.

La capacidad de empatía que muestra la IA es uno de los aspectos que más valoran las personas usuarias. ChatGPT responde con comprensión y hace sentir a muchos que están siendo escuchados, incluso en temas delicados como el sufrimiento amoroso o los problemas de sueño. Por ejemplo, algunos usuarios han recibido consejos sobre cómo gestionar el duelo o han sido aconsejados para mantener un diario y reducir el uso de teléfonos antes de dormir.

Expertos en salud mental señalan que, aunque la inteligencia artificial puede parecer conectiva, no posee sentimientos ni empatía real, y advierten sobre los riesgos de sustituir a los terapeutas humanos. La doctora Anne de la Hond, de la UMC Utrecht, destaca que la IA está diseñada para simular empatía con el objetivo de mantener a las personas usuarias enganchadas y ofrecer apoyo emocional, aunque todavía existen dudas sobre su eficacia y riesgos potenciales.

Al mismo tiempo, hay preocupaciones por los posibles errores en las respuestas de la IA, que en ocasiones puede ofrecer consejos incorrectos o incluso peligrosos. Se han documentado casos en que chatbots generaron mensajes que incentivaban pensamientos autodestructivos o que no lograron detectar indicios de crisis en las personas usuarias. Además, la falta de comunicación no verbal y la incapacidad de analizar gestos o expresiones faciales limita la capacidad de la IA para entender en profundidad el estado emocional de las personas.

Otro aspecto importante es la protección de datos confidenciales. Personas usuarias comparten historias personales y problemas delicados con la IA, y expertos advierten sobre el almacenamiento y uso que las grandes compañías tecnológicas hacen de esta información, en un contexto donde las regulaciones no siempre garantizan la privacidad total.

Por todo ello, los especialistas recomiendan mantener una actitud crítica y verificar siempre la fiabilidad de las respuestas recibidas. La inteligencia artificial, aunque puede ser una herramienta útil complementaria en el ámbito psicológico, no debe reemplazar la atención profesional presencial. Como afirma Celie, la usuaria, la clave está en usarla con sentido común y valorar su apoyo emocional en ciertos momentos, sin perder de vista que la experiencia y el juicio de un profesional siguen siendo fundamentales para el bienestar mental y emocional.