OpenAI enfrenta demandas por uso de contenidos protegidos en entrenamiento de sus modelos, defendiendo el uso justo y ganando en varias instancias judiciales
OpenAI enfrenta varias demandas relacionadas con el uso de contenido protegido, defendiendo el uso justo en un contexto legal que aún debate su alcance.
OpenAI ha enfrentado varias demandas por presunta utilización no autorizada de contenidos para entrenar sus modelos de inteligencia artificial, entre ellas una de The New York Times. La demanda sostiene que ChatGPT usó contenido del periódico sin compensación ni autorización previa. Sin embargo, OpenAI ha solicitado la desestimación argumentando que el scraping de contenidos en línea para entrenar modelos de IA está protegido bajo la figura del uso justo.
Hasta ahora, la justicia ha dado la razón a OpenAI en varias instancias. En 2024, un juez federal de Nueva York desestimó una demanda de derechos de autor presentada por diversos medios, incluyendo Raw Story y AlterNet, al señalar que no se acreditó claramente el origen del contenido utilizado. El tribunal también consideró que el uso de datos scrapeados para entrenar a ChatGPT podría estar amparado por el uso justo, siempre que no se demostrara un daño directo.
En medio de estas disputas legales, OpenAI fue obligada a entregar 20 millones de registros de conversaciones de sus usuarios en ChatGPT en una causa pendiente contra The New York Times, ante la jueza Ona Wang en Manhattan. La compañía apeló esta decisión, que pretendía determinar si el uso de estas conversaciones podía sustentar las reclamaciones del periódico. La jueza indicó que estos registros eran fundamentales para comprender si la utilización de contenido protegido se dio sin la autorización correspondiente.
Mientras tanto, OpenAI defiende su postura, argumentando que recopilar datos para entrenar modelos de IA mediante scraping no viola las leyes de derechos de autor y que impedir esta práctica dificultaría el desarrollo de tecnologías avanzadas. Sin embargo, el CEO de la compañía, Sam Altman, ha reconocido que evitar usar contenido protegido sería casi imposible para crear herramientas similares a ChatGPT.
El caso sigue en curso y se considera un ejemplo de cómo la legislación actual enfrenta los retos planteados por la inteligencia artificial y el uso de contenidos protegidos. La resolución de estos litigios podría marcar un precedente importante para toda la industria tecnológica y los derechos de autor en la era digital.