Google utiliza videos de YouTube para entrenar sus modelos de inteligencia artificial sin el conocimiento de muchos creadores
Google emplea videos de YouTube para entrenar inteligencia artificial, generando preocupaciones sobre derechos de creadores y protección de contenido.

Google está utilizando su amplia biblioteca de vídeos de YouTube para entrenar sus modelos de inteligencia artificial, incluidos Gemini y Veo 3, según pudo conocer CNBC. La compañía recurre a su catálogo de 20.000 millones de vídeos para desarrollar estas herramientas de última generación, aunque solo emplea un subconjunto de ese contenido y asegura respetar los acuerdos específicos con creadores y medios. Sin embargo, expertos advierten que este uso puede provocar una crisis en la propiedad intelectual y afectar a los creadores, ya que la mayoría desconoce que su contenido está siendo usado para entrenar modelos de IA.
Google afirmó a CNBC que solo utiliza una parte de sus vídeos para entrenar sus modelos de inteligencia artificial y que cumple con los acuerdos establecidos con creadores y medios de comunicación. Un portavoz de YouTube aseguró que siempre han usado contenido de la plataforma para mejorar sus productos y que continúan invirtiendo en protecciones que permitan a las personas creadoras resguardar su imagen y likeness en la era de la IA. No obstante, no revelaron cuántos vídeos de los 20.000 millones se usan para entrenar estos modelos ni cuáles se seleccionan para ese fin.
Expertos señalan que, incluso con solo una fracción del total, el volumen utilizado para entrenamiento es enorme. Según cálculos, entrenar con solo el 1% del contenido equivale a más de 2.300 millones de minutos, una cantidad que supera en 40 veces los datos de entrenamiento de modelos competidores. La plataforma permite a las personas creadoras optar por no entrenar a terceros con su contenido, pero no pueden impedir que Google utilice sus vídeos para entrenar sus propios modelos de inteligencia artificial.
La revelación ha generado preocupación entre muchas personas creadoras e intelectuales, que desconocían que sus vídeos se habían empleado en el entrenamiento de IA. La existencia de estas prácticas se hizo más evidente tras el lanzamiento en mayo del modelo Veo 3, capaz de generar secuencias cinematográficas completas con escenas y audio totalmente creados por IA, usando contenido que se presume ha sido entrenado en vídeos de YouTube. Aunque estas creaciones no replican exactamente trabajos existentes, alimentan herramientas comerciales que podrían competir con o duplicar el trabajo de las personas creadoras sin reconocimiento ni compensación.
Al subir un vídeo a YouTube, el usuario acepta que la plataforma tenga una licencia amplia para usar su contenido, incluidos los derechos para entrenar modelos de IA, sin poder optar por una exclusión específica de ese uso. Algunos expertos advierten que estas prácticas benefician a Google en detrimento de las personas creadoras, que ven cómo sus contenidos ayudan a formar sistemas que podrían acabar usurpando su trabajo o generando versiones falsas en otros espacios digitales. La existencia de herramientas como Trace ID, que evalúan el grado de coincidencia entre vídeos generados por IA y obras humanas, demuestra la creciente preocupación por el uso indebido de contenido original.
Algunas personas creadoras aceptan con cierta resignación el avance de las tecnologías, considerándolo una competencia inevitable, aunque reconocen que sería preferible mayor transparencia. Google incluye en sus productos cláusulas de indemnización que cubren posibles reclamaciones por derechos de autor en contenidos generados por IA, y plataformas como YouTube han establecido alianzas y herramientas para que las personas creadoras puedan gestionar el uso de su imagen, aunque no siempre son efectivas o completas. La situación ha llegado a los tribunales, como en el caso reciente de Disney y Universal, que han iniciado acciones legales contra plataformas de generación de imágenes por presunta infracción de derechos.
En este contexto, expertos y legisladores continúan exigiendo mayor regulación y derechos claros para las personas creadoras en el uso de sus contenidos en entrenamientos de inteligencia artificial. La discusión plantea la necesidad de equilibrar la innovación tecnológica con la protección de los derechos de quienes invierten tiempo y esfuerzo en crear contenido original, en un escenario donde la línea entre competencia y apropiación se vuelve cada vez más difusa.