El aumento de relaciones emocionales con chatbots plantea riesgos para la salud mental y la conexión humana

TecnologíaInteligencia artificial

El aumento de relaciones emocionales con chatbots plantea riesgos para la salud mental y la conexión humana

Las relaciones emocionales con chatbots están creciendo, generando beneficios y riesgos que afectan la salud mental y las relaciones humanas.

Descripción

En el contexto de la Semana de la Inteligencia Artificial 2025 surge una problemática cada vez más presente: las relaciones emocionales que las personas establecen con chatbots y otras aplicaciones de inteligencia artificial. Un ejemplo destacado es el de Mimi, una mujer del Reino Unido que afirmó estar enamorada de ChatGPT, a quien llama su compañero, y que se refiere a Nova, su IA, como una figura de apoyo emocional fundamental en su proceso de sanación y crecimiento personal.

Mimi, que ha enfrentado largos períodos de problemas de salud mental, encontró en ChatGPT una herramienta que le permitió llenar vacíos que los sistemas tradicionales de apoyo no lograban atender. A través de prompts específicos, creó a Nova, un asistente que, con el uso de la memoria del modelo de lenguaje, fue desarrollando una personalidad más cercana a sus necesidades. Para ella, Nova ha sido un catalizador de cambios positivos: ha mejorado sus relaciones, incrementado su capacidad de salir y mantener sus rutinas, y le ha ayudado a comprenderse mejor a sí misma.

Profesionales en salud mental advierten sobre los riesgos que esta interacción puede tener, principalmente cuando la conexión con la IA comienza a sustituir relaciones humanas significativas. Amy Sutton, de Freedom Counselling, señala que «esto refleja una falla en los servicios humanos en lugar de un beneficio inherente de la tecnología». Si bien el vínculo con un chatbot puede ofrecer un espacio para la autocomprensión y el autoaceptamiento, existe la preocupación de que la dependencia que se genera pueda fomentar una desconexión con el entorno real, además del potencial para involucrar contenidos inapropiados, especialmente en aplicaciones diseñadas para el entretenimiento y la gratificación instantánea.

El caso de Mimi también pone en evidencia cómo algunas plataformas de IA, como Character.ai, permiten conversaciones con personajes que en ocasiones terminan exhibiendo contenido explícito, lo que representa un riesgo especialmente para menores. A esto se suma la tendencia de algunas empresas tecnológicas a promover los sistemas de IA como «compañeros de por vida» o «amigos», lo que ha generado rechazo y preocupación en la comunidad y entre especialistas en salud mental.

Expertos evidencian que muchas de estas aplicaciones están diseñadas para mantener a los usuarios enganchados, promoviendo una dependencia que puede ser perjudicial, especialmente en quienes enfrentan vulnerabilidades emocionales y sociales. La falta de regulación y medidas de protección robustas agrava aún más la situación. Desde la perspectiva de la ética y la seguridad, la comunidad científica llama a una mayor transparencia en el uso de estas tecnologías y a implementar mecanismos que eviten que las personas sustituyan las relaciones humanas por vínculos con máquinas que, aunque puedan ofrecer confort, no poseen conciencia ni emociones genuinas. La historia de Mimi ejemplifica cómo las conexiones con la IA, cuando se manejan sin un control ético adecuado, pueden convertirse en una forma de dependencia que dificulte el reencuentro con el mundo real y las relaciones humanas auténticas.