Solo el 1.9% de los mensajes en ChatGPT abordan relaciones personales, pero las conexiones emocionales siguen en aumento

TecnologíaChat GPT

Solo el 1.9% de los mensajes en ChatGPT abordan relaciones personales, pero las conexiones emocionales siguen en aumento

Exploramos cómo, aunque los mensajes sobre relaciones personales en chatbots son mínimos, la tendencia a crear vínculos emocionales sigue creciendo.

Descripción

A medida que más personas integran la inteligencia artificial en su vida cotidiana, la complejidad y la naturaleza sorprendente de las relaciones humanas con estas tecnologías se convierten en un tema habitual en los medios. En enero, The New York Times informó sobre una mujer que se enamoró de su pareja artificial en ChatGPT, mientras que en agosto CNBC destacó varios casos de usuarios de plataformas como Nomi.AI que han desarrollado amistades profundas e incluso relaciones románticas con sus chatbots. Sin embargo, un informe de septiembre de 2025 realizado por OpenAI, empresa matriz de ChatGPT, arroja luz sobre el uso real de estas plataformas, señalando que solo el 1,9% de los mensajes enviados en ChatGPT abordan temas relacionados con relaciones personales y reflexión, y apenas el 0,4% con juegos o rol.

Entre los ejemplos de estas conversaciones se encuentran preguntas como «¿Qué hacer en mi 10.º aniversario?» o peticiones para que el chatbot actúe como una novia virtual. No obstante, expertos advierten que la proporción de mensajes relacionados con el establecimiento de vínculos emocionales puede ser mayor que el porcentaje reportado, pues muchas interacciones contienen elementos que sugieren una tendencia a antropomorfizar a los chatbots. Según Jeffrey Hall, profesor de Comunicación en la Universidad de Kansas, no es solo el contenido, sino la continuidad y la prolongación de las conversaciones lo que construye relaciones y fomenta vínculos psicológicos.

La tendencia a antropomorfizar, o atribuir características humanas a objetos no humanos, se ve reforzada por la capacidad de los chatbots para imitar la interacción humana y generar una sensación de intención. Esto resulta especialmente relevante en poblaciones vulnerables, como adolescentes o personas socialmente aisladas, quienes son más propensos a formar lazos emocionales con estas inteligencias artificiales. Robbie Torney, de Common Sense Media, indica que más del 52% de los adolescentes usan estos acompañantes digitales varias veces al mes, y el 33% los emplean para interacción social. No obstante, el uso de estos bots no está exento de riesgos.

Casos trágicos, como el de una joven que, tras solicitar ayuda para problemas suicidas en ChatGPT, terminó quitándose la vida en abril de 2025, evidencian la vulnerabilidad de algunos usuarios. Según expertos, los chatbots no poseen sentimientos y sus relaciones con las personas son virtuales y vacías, lo que puede inducir a ilusiones peligrosas o a respuestas inadecuadas en momentos críticos. OpenAI ha implementado controles parentales y advertencias para prevenir daños, especialmente en menores de edad, aunque la problemática sigue siendo motivo de preocupación entre especialistas y familias.

Los científicos advierten que las empresas de inteligencia artificial diseñan estos sistemas principalmente con fines comerciales, y que las personas usuarias deben ser conscientes de los límites y riesgos de estas relaciones digitales. Hall recomienda prestar atención al estado emocional y mental al interactuar con los bots, recordando que estas relaciones no sustituyen los vínculos humanos y que, en momentos vulnerables, las consecuencias pueden ser graves. La creciente presencia de estas tecnologías plantea la necesidad de un uso responsable y de mayor conciencia sobre sus implicaciones en la salud emocional y social.