OpenAI reconoce que GPT-5 mantiene propiedades alucinatorias debido a la naturaleza de su predicción de palabras

TecnologíaOpenAI

OpenAI reconoce que GPT-5 mantiene propiedades alucinatorias debido a la naturaleza de su predicción de palabras

OpenAI admite que GPT-5 sigue generando respuestas falsas convincentes debido a su forma de predecir palabras sin distinguir la verdad de la falsedad.

Descripción

OpenAI ha reconocido que las propiedades alucinatorias, es decir, respuestas plausibles pero falsas, persisten en GPT-5 debido a que los modelos predicen palabras sin distinguir entre verdad y falsedad. Según la investigación de la compañía, este problema no puede solucionarse por completo, ya que los modelos aprenden a predecir la siguiente palabra sin utilizar etiquetas que indiquen si la información es verdadera o falsa. Esto provoca que, en casos de datos poco comunes o poco representados, como fechas de nacimiento de personas poco conocidas, los modelos generen respuestas incorrectas pero convincentes, debido a la falta de patrones estadísticos sólidos en esos casos.

Los expertos comparan la situación con un test de opción múltiple en el que es tentador simplemente adivinar, porque las métricas actuales premian la cantidad de respuestas correctas sin considerar si una respuesta está sembrada de certeza o es mera suerte. En consecuencia, los sistemas tienden a «disparar» respuestas, a veces con errores garrafales, con tal de obtener un mejor puntaje. Para abordar este problema, los investigadores proponen cambiar el enfoque de evaluación, introduciendo esquemas que penalicen las respuestas incorrectas dadas con seguridad y fomenten respuestas parciales cuando exista incertidumbre, similar a lo que ocurre en pruebas estándar como el SAT, donde dejar la respuesta en blanco puede ser más conveniente que arriesgarse a un error.

Los expertos sostienen que no basta con añadir nuevos benchmarks que consideren la incertidumbre, sino que es necesario actualizar las evaluaciones más habituales que clasifican a los modelos. Mientras los sistemas continúen premiando respuestas afortunadas, seguirán comportándose como estudiantes que adivinan en lugar de razonar, lo que limita su capacidad para distinguir entre información real y falsa. La investigación completa está disponible en el enlace proporcionado.