Empresa estadounidense coordina con Israel para influir en respuestas de ChatGPT y promover narrativas pro-israelíes
En pleno auge de la inteligencia artificial, se revelan controversiales acciones coordinadas para manipular la información y influir en la percepción global.
En un escenario que parece sacado de una serie distópica, el 22 de abril de 2025 se ha evidenciado cómo una empresa estadounidense, Clock Tower X, ha llegado a un acuerdo millonario con Israel para influir en las respuestas de ChatGPT y otras herramientas de inteligencia artificial. Este acuerdo, valorado en 6 millones de dólares, incluye la creación de sitios web y acciones en medios y redes sociales con el objetivo de difundir narrativas favorables al Estado hebreo, en un esfuerzo por controlar la percepción en plataformas digitales.
Este fenómeno se enmarca en un contexto donde las campañas de desinformación se han convertido en un peligro creciente, especialmente en relación con Rusia. Según alertan el Servicio Europeo de Acción Exterior (SEAE) y diferentes organizaciones académicas, Moscú no solo difunde narrativas diseñadas para sus audiencias, sino que ahora también apunta a influir en los propios modelos de inteligencia artificial, que reemplazan cada vez más las búsquedas tradicionales en Google en manos de usuarios de todo el mundo.
La manipulación de los sistemas conversacionales de IA permite alcanzar a una audiencia global, dado que los generadores de contenido basados en inteligencia artificial, como ChatGPT, reciben aproximadamente 7.000 millones de visitas mensuales, con un 80% concentradas en la plataforma de OpenAI. Expertos advierten que estas herramientas pueden constituir un canal adicional para la propagación de discursos falsos, y ya se ha detectado que redes de desinformación, como Pravda, han incrementado sus esfuerzos, creando millones de artículos en múltiples idiomas y privando a los bots de información confiable.
Uno de los métodos más utilizados es el denominado «LLM grooming», que consiste en inundar internet con desinformación para que estas narrativas sean incorporadas por los modelos de lenguaje grande (LLM). Estudios recientes revelan que en un 33% de las consultas a diversos chatbots, incluyendo ChatGPT, Gemini y Grok, se replicaron contenidos falsos relacionados con Pravda, incluso presentando citas y referencias engañosas como si fueran confiables.
Además, la influencia de Pravda se extiende a Wikipedia, donde casi 2.000 artículos en ruso y ucraniano contienen información manipulada, contribuyendo a la formación de conocimiento que utilizan los bots y consumidores académicos. La difusión de narrativas pro-Kremlin en estos espacios representa un riesgo importante, dado el papel fundamental que desempeña Wikipedia como fuente principal de información en la era digital.
Ante esta alarmante situación, organizaciones como el Laboratorio de Investigación Forense Digital (DFRLab) y el European Digital Media Observatory (EDMO) advierten sobre la proliferación de estudios y campañas que reflejan la presencia de propaganda prorrusa en diferentes ámbitos académicos y mediáticos. La comunidad internacional llama a estar alerta ante la capacidad de estas campañas para distorsionar la percepción pública y manipular debates académicos, subrayando la necesidad de fortalecer mecanismos de detección y resistencia frente a la desinformación en la era de la inteligencia artificial.