OpenAI protesta ante orden judicial que obliga a retener conversaciones de usuarios en medio de disputa por derechos de autor
OpenAI desafía una orden judicial que exige retener las conversaciones de usuarios, en medio de una disputa legal por derechos de autor y privacidad.

OpenAI ha protestado contra una orden judicial que le obliga a retener las conversaciones de sus usuarios. La compañía, creadora del modelo de inteligencia artificial ChatGPT, expresó su desacuerdo con esta medida, que forma parte de un caso por infracción de derechos de autor impulsado por The New York Times y otros editores. Estas organizaciones argumentan que ChatGPT presenta su contenido en sus respuestas y que las conversaciones eliminadas podrían revelar acceso a material protegido por derechos de autor.
El caso se debatió inicialmente en enero, cuando la jueza Ona T. Wang sugirió que los usuarios, al conocer la existencia del proceso legal, podrían eliminar sus conversaciones para evitar su retención. Aunque en ese momento se negó la solicitud de los editores para conservar dichos datos, la jueza propuso que OpenAI segregara y anonimizará la información de usuarios que hubieran solicitado eliminar sus registros. Dado que OpenAI no respondió a esta petición, la jueza emitió una orden el 13 de mayo que obliga a la compañía a mantener y segregar todos los registros de salida que normalmente serían eliminados, hasta nuevo mandato judicial.
Esta orden señala que OpenAI debe conservar toda la información de salida, independientemente de que los usuarios hayan solicitado su eliminación o de leyes de privacidad que obliguen a la retención. Aunque ChatGPT ya almacena por defecto las conversaciones para entrenar su modelo, los usuarios tienen la opción de desactivar esta configuración y hacer que sus conversaciones sean olvidadas. Además, cuenta con una función temporal de chat que elimina automáticamente los registros una vez finalizada la conversación.
En una carta formal, OpenAI afirmó que la orden judicial compromete la privacidad de sus usuarios al obligarla a retener datos que estos escogieron eliminar y que contienen información sensible, como detalles financieros y personales. La compañía argumentó además que, incluso al borrar chats, mantiene un registro separado de detalles compartidos en las conversaciones, que puede usar para comprender mejor a los usuarios, aunque es posible desactivar o eliminar estos datos de memoria adicional.
OpenAI afirmó que no existe evidencia de que las conversaciones eliminadas contengan contenido protegido y advirtió que la retención de datos generaría un retraso de meses en su implementación. La decisión de los editores para unir sus demandas contra la compañía se basó en la supuesta infracción de derechos de autor, argumentando que ChatGPT transforma el contenido en tokens que luego combina para proporcionar respuestas. La compañía sostuvo que su uso del contenido se ampara en las reglas de uso justo, debido a la transformación del material original en tokens que se mezclan con otra información para ofrecer servicios a los usuarios.
La situación genera una tensión clara entre la protección de la privacidad de los usuarios y los derechos de propiedad intelectual, en medio de una creciente discusión sobre el manejo de datos en la inteligencia artificial. Mientras tanto, OpenAI continúa defendiendo su posición y mantiene que la implementación de estas medidas de retención de datos sería muy difícil y tardaría meses, por lo que la controversia aún está lejos de resolverse por completo.