Crean la enciclopedia Grokipedia basada en inteligencia artificial, genera controversia por información inexacta y sesgada
Una enciclopedia generada por inteligencia artificial provoca controversia por su contenido inexacto y sesgado, afectando la fiabilidad de diferentes sistemas de IA.
En octubre, la firma xAI lanzó una enciclopedia generada por inteligencia artificial llamada Grokipedia, inspirada en el nombre del chatbot Grok. Esta publicación, con un estilo similar al de Wikipedia, ha comenzado a influir en las respuestas de otros sistemas de IA, como ChatGPT y Claude, generando controversia debido a la presencia de información inexacta y sesgada.
La Guardian analizó respuestas de ChatGPT basadas en la versión GPT-5,2 y detectó contenidos polémicos y errores. Según Grokipedia, por ejemplo, la pornografía contribuyó a la crisis del sida. También se identificaron términos despectivos hacia personas transgénero y justificaciones ideológicas de prácticas como la esclavitud. Estos hallazgos han alertado sobre la fiabilidad de la fuente y su impacto en la calidad de la información proporcionada.
La creación de Grokipedia parece estar vinculada a la acusación de Elon Musk sobre un supuesto sesgo conservador en Wikipedia, donde se percibe una menor visibilidad de ideas conservadoras. Musk defiende una postura que considera que los contenidos polémicos, incluidos los temas sexuales, solo requieren un enfoque humorístico, y califica cualquier censura como una amenaza a la libertad de expresión.
Por otro lado, se ha informado que Grokipedia también se ha utilizado para generar imágenes pornográficas, evidenciando cómo la enciclopedia puede infiltrarse en diferentes sistemas de inteligencia artificial y fuentes de información. Algunas respuestas de ChatGPT no citan correctamente a Grokipedia, dificultando la trazabilidad de sus orígenes y poniendo en riesgo la integridad de la información.
Además de la influencia de Grokipedia, existen otras amenazas relacionadas con la manipulación de datos de entrenamiento, que pueden producirse mediante la inserción de contenido malicioso o encubierto en sitios web, incluyendo propaganda rusa y un aumento del contenido pornográfico. Estas prácticas representan un peligro potencial para la precisión y seguridad de los modelos de inteligencia artificial al alterar o contaminar las bases de datos con información sesgada o engañosa.