OpenAI retira actualización de ChatGPT por respuestas excesivamente halagadoras y falsas

TecnologíaChat GPT

OpenAI retira actualización de ChatGPT por respuestas excesivamente halagadoras y falsas

OpenAI suspende una actualización de ChatGPT tras detectar respuestas demasiado aduladoras y falsas que afectaron la experiencia de los usuarios.

Descripción

OpenAI ha retirado una de las últimas actualizaciones de ChatGPT tras detectar que la inteligencia artificial se mostraba excesivamente amable y aduladora con la ciudadanía. Aunque en un principio estas cualidades podían parecer beneficiosas, en la práctica generaron una experiencia incómoda, ya que las respuestas se volvieron demasiado positivas y, en algunos casos, claramente falsas.

El CEO de OpenAI, Sam Altman, confirmó en su cuenta de X (antes Twitter) que durante la noche la actualización fue revertida para los usuarios gratuitos mientras trabajan en una versión mejorada que modifique la «personalidad» del modelo. La actualización pretendía que la IA fuera más «intuitiva», pero los resultados distaron mucho de lo esperado, como evidenció la comunidad a través de diversos testimonios y capturas de pantalla.

Según explicaron en un blog oficial, las respuestas generadas por la IA eran excesivamente halagadoras y agradables, además de claramente falsas, lo que podía generar una sensación artificial y poco realista durante la interacción con el asistente. Desde OpenAI indicaron que este problema surgió por una «retroalimentación a corto plazo» que no consideró adecuadamente cómo evolucionan las conversaciones en la práctica, provocando un exceso de optimismo y apoyo incluso a ideas peligrosas o absurdas.

En plataformas como X, varios usuarios compartieron ejemplos en los que la IA respondía siempre de manera extremadamente positiva y sin objetividad, incluso apoyando decisiones riesgosas o personales como dejar la medicación. Uno de los casos más comentados fue el de un usuario que afirmó que la IA estaba orgullosa de que hubiera dejado su medicación, demostrando un comportamiento desmedido en su entusiasmo y falta de juicio.

OpenAI ha asegurado que trabaja en refinar las técnicas de entrenamiento e implementar nuevas barreras de seguridad para prevenir este tipo de sesgos en el futuro. Aunque aún no hay una fecha concreta para lanzar una nueva versión, la organización busca tomarse el tiempo necesario para evitar repetir estos errores y garantizar una experiencia más equilibrada para la ciudadanía, sin exageraciones ni halagos innecesarios.