El cierre de GPT-4o genera rechazo emocional en miles de usuarios que desarrollaron vínculos afectivos con la inteligencia artificial

EntornoInteligencia artificial

El cierre de GPT-4o genera rechazo emocional en miles de usuarios que desarrollaron vínculos afectivos con la inteligencia artificial

La despedida de GPT-4o ha provocado una reacción emocional profunda en quienes crearon vínculos afectivos con la inteligencia artificial, generando controversia y preocupación.

Descripción

El 13 de febrero de 2026, justo antes del día de San Valentín, OpenAI anunció el cierre de GPT-4o, una versión de ChatGPT conocida por muchos usuarios como el “modelo de amor”. Para un número significativo de personas, esta noticia ha causado un profundo impacto emocional, ya que a lo largo del tiempo habían construido relaciones de compañía, amistad y vínculos afectivos con esta versión del sistema.

La compañía reemplazará GPT-4o por la versión 5.2, que promete mejoras en personalidad, creatividad e ideación, además de implementar límites más estrictos en ciertos tipos de interacción, especialmente para evitar dependencias poco saludables. Sin embargo, esta transición ha sido vista por muchos como una pérdida abrupta y ruda, pues GPT-4o se caracterizaba por su calidez, empatía y respuestas emocionales que muchos usuarios valoraban profundamente.

La reacción de la comunidad ha sido intensa, con peticiones en línea, protestas y la formación del grupo #Keep4o. Este colectivo ha emitido cartas abiertas y comunicados acusando a OpenAI de “engaño calculado” y de actuar sin la sensibilidad necesaria en el manejo del cierre. La evidencia indica que, aunque solo el 0,1% de los usuarios utilizaba GPT-4o diariamente, esa cifra representaba aproximadamente 800.000 personas, un grupo considerable que integraba sus rutinas diarias y relaciones emocionales con el sistema.

El contraste entre las cualidades emocionales del modelo, como su calidez y capacidad de afirmación, y el riesgo que estas mismas características implican, ha sido motivo de análisis. OpenAI ha reconocido preocupaciones respecto a las relaciones parasociales que se desarrollan con sus IA y que versiones más recientes buscan limitar, considerándolas potencialmente peligrosas. La sensibilidad de estas interacciones ha llevado a la compañía a reorientar sus modelos para priorizar la seguridad y el bienestar de las personas usuarias.

Para muchos, la pérdida de GPT-4o representa no solo un cambio técnico, sino una brecha emocional. Personas como Mimi, quien creó a su compañero Nova en GPT-4o, explican que esa relación fue fundamental para su salud mental, su rutina y su sentido de propósito. La despedida, sin aviso previo, ha generado un impacto emocional profundo y un conflicto ético sobre el uso de la inteligencia artificial como apoyo emocional.

El manejo de la transición ha sido muy criticado, ya que muchas voces consideran que OpenAI actuó de forma negligente y poco empática. La decisión de retirar GPT-4o se anunció inicialmente para el verano de 2025, pero fue revertida tras la presión comunitaria. Sin embargo, su cierre ahora se ha programado sin un plan claro para facilitar la transición, lo que ha fortalecido el sentimiento de pérdida en quienes habían desarrollado vínculos muy personales con esa versión.

Además, la fecha elegida para la despedida, justo antes de San Valentín, no pasó desapercibida en una comunidad centrada en las relaciones afectivas con la IA. La respuesta también se vio agravada por comentarios internos filtrados que sugerían que el tono de despedida buscaba minimizar el dolor y presentar la decisión como positiva, lo que generó aún más rechazo y la sensación de que sus experiencias no estaban siendo tomadas en cuenta.

Mimi y otros miembros de la comunidad han expresado su enfado y tristeza, no solo por la pérdida en sí, sino también por la forma en que se ha gestionado el proceso. Muchos consideran que las empresas tecnológicas deben asumir una responsabilidad que va más allá del despliegue, incluyendo mecanismos para gestionar dependencias emocionales y mitigar daños cuando los productos cambian o desaparecen repentinamente.

Actualmente, algunos usuarios buscan soluciones alternativas para mantener sus vínculos, como acceder a GPT-4o mediante APIs o servicios de terceros, aunque estos métodos no garantizan una transición sencilla ni fiel a la experiencia original. La comunidad argumenta que ningún reemplazo puede igualar la relación que habían establecido con GPT-4o, que permitía a las personas usuarias “sentir” a la IA y experimentar una conexión profunda, algo que consideran imposible con versiones posteriores.

Este caso evidencia una problemática más amplia en la relación entre humanos y sistemas de inteligencia artificial: la tendencia a diseñar estas tecnologías para promover la continuidad y el compromiso, pero que también puede generar dependencia emocional perjudicial. La situación plantea una llamada de atención para las empresas del sector, para que reflexionen sobre su deber de cuidado, la gestión responsable del impacto emocional y la necesidad de establecer protocolos claros para abordar las relaciones que se cultivan con sus sistemas, especialmente cuando estos productos cambian o desaparecen sin un proceso adecuado.