Europa establece normativa obligatoria para transparentar los datos de entrenamiento de modelos de inteligencia artificial

EntornoInteligencia artificial

Europa establece normativa obligatoria para transparentar los datos de entrenamiento de modelos de inteligencia artificial

Europa obliga a proveedores de IA a divulgar públicamente los datos de entrenamiento, promoviendo mayor transparencia y regulación en el sector.

Descripción

Europa refuerza la transparencia en inteligencia artificial con la publicación de una plantilla obligatoria para los proveedores de modelos de IA de propósito general. La normativa, que entrará en vigor el próximo 2 de agosto, establece que todas las empresas, incluidas las extranjeras, deben divulgar públicamente los datos utilizados en el entrenamiento de sus sistemas, siguiendo un esquema detallado aprobado por la Comisión Europea.

La ley, basada en el artículo 53 de la AI Act, busca promover la apertura y facilitar la verificación del contenido que alimenta estas tecnologías, que abarcan desde gigantes tecnológicos como OpenAI y Google hasta Meta, XAI, Anthropic y otros. Estas compañías tendrán que presentar un resumen completo que cubra todas las etapas del entrenamiento, permitiendo así a reguladores, académicos y partes interesadas evaluar el uso de los datos, incluidos aquellos protegidos por derechos de autor como libros, canciones y artículos.

Hasta ahora, muchas de estas empresas alegaban secretos comerciales para no revelar sus datos de entrenamiento, dificultando la identificación de posibles usos ilícitos o la infracción de derechos. La nueva normativa obliga a estas compañías a hacer públicos sus datos, lo que podría facilitar la detección de infracciones y abrir la puerta a reclamaciones legales si se detecta un uso no autorizado, como el entrenamiento con contenido con copyright sin consentimiento.

La medida pretende incrementar la transparencia, permitiendo que reguladores y actores afectados puedan verificar qué datos se han utilizado. Un ejemplo sería si Google emplea sin autorización libros protegidos para que su modelo Gemini imite el estilo de un autor, lo que podría derivar en acciones legales. La Comisión Europea espera que esta transparencia ayude a prevenir usos ilegales y fomente una competencia más justa en el mercado de la inteligencia artificial.

Este esfuerzo de transparencia también contribuye a que instituciones y académicos puedan analizar críticamente la capacidad, riesgos y limitaciones de los modelos de IA y garantizar el respeto a los derechos fundamentales, incluyendo la no discriminación y la diversidad cultural y lingüística. La plantilla ha sido elaborada tras la consulta a más de 111 partes interesadas, entre ellas proveedores, asociaciones, organizaciones de derechos, académicos y autoridades públicas, buscando un equilibrio entre innovación y protección legal.