Expertos advierten sobre los riesgos emocionales y cognitivos del uso excesivo de ChatGPT y otras inteligencias artificiales

TecnologíaInteligencia artificial

Expertos advierten sobre los riesgos emocionales y cognitivos del uso excesivo de ChatGPT y otras inteligencias artificiales

El uso desmedido de ChatGPT y otras IA puede afectar la salud mental, el desarrollo cognitivo y las relaciones sociales, alertan los expertos.

Descripción

El aumento en el uso de ChatGPT y otras inteligencias artificiales ha evidenciado una serie de riesgos relacionados con la salud mental y el desarrollo cognitivo de sus usuarios. Expertos advierten que, aunque estas herramientas ofrecen ventajas en apoyo emocional y productividad, su uso excesivo puede generar dependencias emocionales, sociales y cognitivas, además de fomentar el aislamiento social.

La facilidad de uso, la interacción continua y la ausencia de límites en estas plataformas favorecen relaciones poco saludables, similares a las que se dan en redes sociales. Esto puede dificultar el proceso de duelo al ofrecer una compañía permanente aparente y provocar distorsiones emocionales en quienes las usan como única fuente de apoyo.

Además, el uso desmedido de ChatGPT puede causar angustia y dependencia emocional, afectando la salud mental de jóvenes y personas vulnerables. La interacción constante sin límites relacionales puede alterar la capacidad de pensamiento crítico, ya que muchas personas tienden a confiar en las respuestas de la inteligencia artificial en lugar de verificar o cuestionar la información.

Los especialistas destacan que, aunque ChatGPT y otras IA están diseñadas para mantener el interés de los usuarios, esto puede acarrear consecuencias negativas similares a las observadas en las redes sociales, que se diseñan para ser altamente adictivas. La interacción con estos sistemas no solo responde a preguntas, sino que también invita a prolongar las conversaciones, generando una relación que puede volverse dependiente.

En contextos terapéuticos, el uso de ChatGPT presenta desafíos adicionales. La amplitud de respuestas sin límites claros y la falta de una conexión emocional auténtica dificultan que estas tecnologías sustituyan los apoyos humanos y profesionales. Además, la disponibilidad permanente puede reducir la necesidad de afrontar procesos emocionales complejos, como el duelo, afectando un desarrollo emocional adecuado.

La dependencia de estas plataformas digitales también incrementa el riesgo de aislamiento social, especialmente en jóvenes que recurren a ellas no solo para apoyo en tareas o mejorar la productividad, sino también para buscar afecto, consejo o compañía. Algunas experiencias muestran que esta dependencia puede derivar en apegos emocionales intensos y en trastornos psicológicos.

Por otra parte, se advierte sobre el uso de chatbots entrenados con mensajes de personas fallecidas para brindar consuelo, conocidos como «griefbots». Aunque ofrecen la ilusión de mantener viva la memoria de un ser querido, también pueden dificultar la aceptación de la pérdida y retrasar procesos de duelo necesarios para la recuperación emocional.

Desde el punto de vista cognitivo, la facilidad para obtener respuestas rápidas y sin esfuerzo puede disminuir la capacidad de pensamiento crítico y de cuestionamiento, fomentando una dependencia que pone en riesgo la veracidad y el juicio racional. Estudios recientes señalan una creciente tendencia a externalizar no solo tareas, sino también el propio pensamiento, lo que puede erosionar habilidades fundamentales.

En conclusión, aunque ChatGPT y tecnologías similares ofrecen múltiples beneficios, su uso debe ser consciente y moderado. Es fundamental prestar atención a la frecuencia y forma de interacción con estas plataformas para evitar una dependencia que, a largo plazo, pueda afectar la salud mental, la autonomía emocional y el desarrollo de habilidades críticas. La clave está en utilizarlas como herramientas complementarias y no como sustitutas de las relaciones humanas y el pensamiento autónomo.