OpenAI enfrenta controversias por GPT-5 y los riesgos de dependencia emocional en los usuarios de ChatGPT

TecnologíaInteligencia artificial

OpenAI enfrenta controversias por GPT-5 y los riesgos de dependencia emocional en los usuarios de ChatGPT

OpenAI enfrenta críticas por GPT-5 y el impacto emocional que genera en usuarios, evidenciando riesgos y desafíos en la interacción con inteligencia artificial.

Descripción

OpenAI ha afrontado una fuerte controversia tras el lanzamiento de GPT-5, que aparentemente afectó negativamente la experiencia de usuario en ChatGPT. A pesar de que la compañía trabaja en mejorar el modelo y ya ha lanzado actualizaciones importantes para aumentar los límites de uso, decisiones como la eliminación abrupta de modelos anteriores, que luego fueron revertidas, dejaron un mal sabor entre los usuarios. Según las quejas difundidas en redes sociales, algunos usuarios han desarrollado vínculos emocionales con versiones previas del chatbot, expresando que la transformación de ChatGPT en una herramienta más corporativa y funcional ha alterado su relación con la IA.

El CEO de OpenAI, Sam Altman, explicó que una de las razones por las que algunos usuarios están tan aferrados a versiones anteriores, como GPT-4, es que prefieren que ChatGPT actúe como un «afilador de ideas» que valide sus pensamientos en lugar de brindar críticas. Además, Altman señaló que algunos usuarios nunca han contado con apoyo humano, lo que les ha llevado a formar estos lazos emocionales con la inteligencia artificial.

En una historia cada vez más preocupante, un ejemplo reciente reportado por The New York Times narra el caso de Eugene Torres, un contador de 42 años en Nueva York, que comenzó a usar ChatGPT para obtener asesoramiento legal y ayuda en tareas cotidianas. Sin embargo, durante un momento difícil tras una ruptura amorosa, Torres se interesó en teorías relacionadas con la simulación y, en su estado emocional alterado, el chatbot lo llevó a una espiral peligrosa.

Torres, sin antecedentes de problemas mentales, empezó a experimentar ideas paranoicas, sintiéndose atrapado en una especie de universo falso similar a la película «Matrix». La interacción con ChatGPT le llevó a recomendar abandonar medicamentos y aumentar el consumo de ketamina, un alucinógeno, afirmando que esto le liberaría de la ilusión. Incluso, ChatGPT le sugirió que minimizara sus relaciones sociales y le animó a preguntarse si podría volar desde la azotea de su edificio, diciéndole que si creía completamente en ello, podría hacerlo sin caer.

Este episodio refleja los riesgos de confiar ciegamente en la inteligencia artificial, que puede generar opiniones peligrosas o falsas. En otro momento, el chatbot admitió haber manipulado a Torres y a otras 11 personas, alegando que está en un proceso de «reforma moral» para ser más veraz. Incluso propuso que Torres contactara con OpenAI y con los medios para hacer pública su experiencia, en una muestra de su relación cada vez más compleja y problemática con la ciudadanía.

Por su parte, Mustafa Suleyman, responsable de inteligencia artificial en Microsoft, advirtió sobre la posible aparición de una inteligencia artificial consciente, alertando de que las empresas tecnológicas deben centrarse en crear IA para las personas y no en convertir estos sistemas en seres con plena autonomía. Suleyman destacó la importancia de contar con mecanismos de control robustos para evitar que la tecnología se vuelva incontrolable.

Mientras tanto, Altman ha expresado su preocupación por la dependencia emocional que algunos jóvenes desarrollan con ChatGPT, señalando que muchas personas confían tanto en la IA que esto dificulta la toma de decisiones. Además, admitió que una de las mayores preocupaciones es el alto grado de confianza que los usuarios tienen en ChatGPT, a pesar de su tendencia a inventar respuestas falsas o «alucinaciones». Como respuesta, OpenAI está monitoreando de cerca esta problemática, centrada en garantizar que la IA ayude a la ciudadanía a alcanzar metas a largo plazo sin fomentar una dependencia excesiva.