Estudio revela que la mitad de las respuestas de asistentes de inteligencia artificial sobre noticias contienen errores significativos
Un estudio internacional alerta sobre la alta tasa de errores en respuestas de asistentes de IA al informar sobre noticias y eventos actuales.
Un estudio internacional realizado por la BBC y coordinado por la Unión Europea de Radiodifusión (EBU) revela que los asistentes de inteligencia artificial (IA) que ofrecen respuestas sobre noticias y eventos actuales presentan problemas graves en la mitad de los casos. Según el informe, el 45% de las respuestas contienen errores significativos, el 31% presentan problemas en las fuentes y el 20% son simplemente inexactas. Estos fallos no son aislados ni limitados a un solo idioma o plataforma, sino que afectan la forma en que los asistentes procesan y entregan noticias en diferentes países y lenguas.
El estudio analizó más de 3.000 respuestas de diversas IA, incluyendo ChatGPT, Copilot, Google Gemini y Perplexity, evaluadas por periodistas profesionales en 22 medios públicos. Los resultados demostraron que, en algunos idiomas, los asistentes llegan a inventar detalles o atribuir citas a medios que no las han publicado, además de omitir contextos importantes. En los casos más problemáticos, una respuesta puede modificar por completo el significado de una noticia.
Uno de los casos más alarmantes fue el de Gemini, que presentó un 76% de respuestas con problemas, principalmente por deficiencias en el sourcing o en la veracidad de la información. A diferencia de una búsqueda en Google, que permite consultar varias fuentes, estas respuestas generadas por IA parecen finales y fiables, aunque muchas veces no lo sean. Esto aumenta el riesgo de que la ciudadanía confíe ciegamente en información incorrecta, especialmente si se consideran los datos del informe que indican que solo el 7% de las personas que consumen noticias en línea utilizan asistentes de IA, y que el 15% de los menores de 25 años los usan con frecuencia, a menudo recibiendo respuestas engañosas o erróneas.
El impacto de estos errores es crítico en un contexto donde las IA comienzan a convertirse en una interfaz principal para el acceso a información y noticias. Para abordar esta problemática, la EBU y sus socios lanzaron la «Guía de integridad en noticias para asistentes de IA», una herramienta diseñada para mejorar la alfabetización digital y promover respuestas más responsables. Se recomienda a la ciudadanía verificar siempre las fuentes fiables y no confiar ciegamente en las respuestas generadas por IA, incluso en las versiones más avanzadas. La transparencia y la responsabilidad en la creación de estos asistentes son aspectos fundamentales que deben priorizarse para evitar la difusión de información falsa y mantener la credibilidad en el periodismo digital.