Fiscal de Missouri advierte posibles acciones legales contra Google, Microsoft, OpenAI y Meta por prácticas comerciales en chatbots de inteligencia artificial

EntornoGoogle

Fiscal de Missouri advierte posibles acciones legales contra Google, Microsoft, OpenAI y Meta por prácticas comerciales en chatbots de inteligencia artificial

El fiscal de Missouri amenaza con acciones legales a grandes tecnológicas por prácticas controvertidas en sus chatbots de IA y controversias sobre contenido sesgado.

Descripción

Andrew Bailey, fiscal del estado de Missouri, ha advertido sobre posibles acciones legales contra Google, Microsoft, OpenAI y Meta por prácticas comerciales engañosas relacionadas con sus chatbots de inteligencia artificial. Según informó The Verge, Bailey ha enviado cartas a los directivos de estas compañías acusando a modelos como Gemini, Copilot, ChatGPT y Meta AI de ofrecer respuestas que contienen información falsa, especialmente en relación con un ranking sobre antisemitismo y políticos, motivado por un blog conservador.

En dichas comunicaciones, Bailey solicita acceso a toda la documentación interna que explique las políticas de las empresas sobre el control, modificación o eliminación de contenido en sus chatbots, argumentando que estas prácticas podrían estar sesgando deliberadamente las respuestas para presentar información «neutral y objetiva», una premisa cuestionable en el contexto del aprendizaje automático, donde las respuestas generadas son relevantes más por su pertinencia que por su exactitud.

El origen del caso reside en un post de un blog conservador que pidió a seis chatbots diferentes, incluyendo DeepSeek y Grok, que clasificaran los últimos cinco presidentes de EE. UU. en relación con el antisemitismo. Algunos modelos, según informes, colocaron a Donald Trump en la última posición, mientras que otros, como Grok y DeepSeek, lo situaron en la primera.

El problema, sin embargo, radica en un posible malentendido o exageración: en el caso de Microsoft Copilot, este no respondió a dicha solicitud, pero igualmente fue incluido en las cartas legales de Bailey. Curiosamente, las cuatro empresas mencionadas —incluyendo Google y Meta— están siendo investigadas por Bailey, aunque no todos sus chatbots hayan emitido respuestas controvertidas.

Este tipo de solicitudes para clasificar a políticos en rankings subjetivos difícilmente puede considerarse una cuestión objetiva o basada en hechos históricos indiscutibles. Los modelos de IA a menudo presentan imprecisiones, hallucinations o errores contextuales, pero usar una lista subjetiva como motivo legal por censura parece más una maniobra política que una verdadera preocupación jurídica.

Por otra parte, Bailey sugiere que estas prácticas podrían afectar la protección jurídica que las empresas tienen bajo la sección 230 del Communications Decency Act, que las exime de responsabilidad por el contenido generado por sus usuarios o, en este caso, por sus algoritmos. Sin embargo, expertos consideran que dicha afirmación es una interpretación sin sustento legal y que suele utilizarse en campañas populistas para amenazar a las grandes tecnológicas.

Este no es el primer enfrentamiento legal de Bailey con sectores mediáticos o tecnológicos. Anteriormente intentó investigar a Media Matters por su cobertura sobre anuncios en Twitter (ahora X) y contenido nazi, pero la investigación fue bloqueada rápidamente.

En un momento en el que la discusión sobre la ética, la desinformación y la censura en los sistemas de IA está en auge, este caso parece más una estrategia política que un verdadero precedente judicial. Aunque la crítica a los modelos de IA es necesaria, intentar abrir una investigación formal por un ranking subjetivo con información inexacta refleja más problemas en el sistema jurídico que en las compañías tecnológicas afectadas.