El uso de Grokipedia como fuente en GPT-5.2 genera preocupaciones por información no verificada
El uso de Grokipedia en GPT-5.2 suscita dudas sobre la fiabilidad y riesgos de la desinformación en fuentes de inteligencia artificial.
En diciembre pasado, The Guardian inició pruebas con el modelo GPT-5.2 de OpenAI, considerado el más avanzado hasta la fecha. Durante estas pruebas, se detectó que ChatGPT utilizaba información proveniente de Grokipedia, una enciclopedia generada por inteligencia artificial y gestionada por los modelos de xAI, de Elon Musk. A diferencia de Wikipedia, Grokipedia no permite ediciones por parte de usuarios; toda la información se actualiza únicamente mediante IA. Esta situación generó preocupación, ya que Grokipedia incluye datos que pueden promover falsedades o información engañosa.
El análisis de The Guardian reveló que el modelo GPT-5.2 citó a Grokipedia aproximadamente nueve veces en una docena de solicitudes, principalmente al abordar temas controvertidos o poco conocidos, como historia y política. Sin embargo, en casos donde la información desacreditada era evidente, ChatGPT no recurrió a Grokipedia, prefiriendo omitir esas referencias. El informe también señala que, en ocasiones, la fuente podría influir de manera sesgada en las respuestas del sistema, especialmente en áreas con poca evidencia o datos no verificables.
Expertos en desinformación, como Nina Jankowicz, advirtieron sobre el riesgo de confiar ciegamente en fuentes generadas por IA. Ella explicó que los usuarios podrían asumir que, si un modelo cita Grokipedia, la información es fiable sin verificar su veracidad previa. Esto es peligroso, porque Grokipedia puede contener afirmaciones falsificadas o poco verificadas, lo que afecta la calidad de la información y la percepción pública.
OpenAI respondió a las inquietudes de The Guardian asegurando que sus modelos intentan extraer información de diversas fuentes públicas y mostrar las citas correspondientes, además de aplicar filtros de seguridad para reducir la exposición a contenido dañino o engañoso. Sin embargo, también señalaron que otros modelos, como Claude de Anthropic, emplean técnicas similares. Investigadores en desinformación advierten que, una vez que la información incorrecta entra en estos sistemas, puede persistir incluso tras los intentos de corrección, dificultando su eliminación y actualización.
La situación subraya la importancia de que la ciudadanía verifique la información proporcionada por herramientas de inteligencia artificial y no confíe ciegamente en las citas o datos sin comprobar. La experiencia de Jankowicz, quien tuvo que enfrentar una cita falsificada en una publicación, ejemplifica cómo la desinformación puede afectar la reputación profesional y la fiabilidad de los sistemas automatizados si no se gestionan adecuadamente.