Tribunal de Frankfurt considera los errores en inteligencia artificial como obstáculos competitivos en casos futuros

EntornoInteligencia artificial

Tribunal de Frankfurt considera los errores en inteligencia artificial como obstáculos competitivos en casos futuros

El fallo del tribunal abre la puerta a analizar la responsabilidad de las empresas tecnológicas por errores en inteligencia artificial, en un contexto legal en evolución.

Descripción

El tribunal de Frankfurt ha establecido que los errores en la inteligencia artificial (IA) pueden considerarse obstáculos competitivos bajo ciertas condiciones, abriendo la puerta a que las empresas utilicen el marco del derecho antimonopolio para defenderse frente a información falsa generada por IA. La decisión, dictada en un juicio de urgencia, se produjo tras la crítica de un grupo de médicos a una vista general de IA que afirmaba falsamente que un procedimiento de alargamiento del pene implicaba cortar y mover una parte del órgano, lo cual afectó sus visitas y actividades comerciales.

El tribunal no responsabilizó directamente a Google por la información errónea debido a las exigencias elevadas de prueba relacionadas con la «inconveniencia» del contenido, pero dejó abierta la posibilidad de que en futuros casos se pueda establecer responsabilidad por daños, especialmente en temas de salud. Además, la sentencia no precisó si las IA de Google generan contenido propio o simplemente recopilan información de terceros, lo que tiene implicaciones importantes para la responsabilidad legal de la compañía.

Asimismo, el fallo aclaró que las traducciones automáticas en los buscadores no se consideran servicios independientes y que la responsabilidad por información falsa en IA será evaluada en futuros casos, teniendo en cuenta el contexto y las circunstancias específicas. La sentencia también destacó que los resúmenes automáticos de Google, como los de «Auto-Complete», no deben entenderse automáticamente como contenidos propios, lo que influye en el grado de responsabilidad que puede atribuirse a la empresa.

En este caso, el tribunal consideró que la información falsa en la vista general de IA no representaba una «conducta claramente inadecuada» que justificara una orden de cese inmediato, ya que el error fue atenuado por el contexto y no se cumplían los requisitos de una conducta ilegítima que afectara de manera sustancial la competencia o el interés público, especialmente en temas relacionados con la salud. Además, reconoció la existencia de un riesgo potencial para el bienestar público, pero no suficiente para invalidar la protección legal de Google en esta instancia.

El fallo señaló también que, en relación con las leyes de competencia y el Digital Markets Act, las respuestas de IA de Google se consideran parte de los resultados de búsqueda y no servicios independientes, lo que limita la aplicabilidad de estos marcos regulatorios en este caso. Sin embargo, expertos legales interpretan que esta decisión representa un primer paso importante para entender la responsabilidad en casos donde las IA generan información errónea sin que Google sea necesariamente responsable directa.

Google, por su parte, no quiso comentar públicamente la decisión y mantiene que sus estadísticas de error en respuestas de IA son confidenciales. La compañía ha reducido la distribución de respuestas en temas sensibles como los médicos o financieros a menos del 1% e incluye advertencias que indican que las respuestas de IA son experimentales para mitigar riesgos legales.

En resumen, el tribunal de Frankfurt ha sentado un precedente que muestra que la responsabilidad por errores en IA puede considerarse en el marco del derecho antimonopolio y que las empresas tecnológicas deben seguir adoptando medidas para evitar la difusión de información falsa que pueda afectar la competencia y el interés público. La decisión abre una vía para futuras acciones legales, pero no implica un «libre camino» para la responsabilidad, dado que factores como el contexto y la evidencia de daño real serán determinantes en procesos futuros.