Orden judicial en Nueva York obliga a OpenAI a conservar todos los registros de ChatGPT, incluyendo eliminados y anónimos

EntornoOpenAI

Orden judicial en Nueva York obliga a OpenAI a conservar todos los registros de ChatGPT, incluyendo eliminados y anónimos

Una orden judicial en Nueva York obliga a OpenAI a conservar todos los registros de ChatGPT, generando debate sobre privacidad, derechos y regulación.

Descripción

A principios de este mes, una orden judicial firmada por una jueza en Nueva York ordenó a OpenAI conservar todos los registros de chat de ChatGPT, incluidos los eliminados y supuestamente anónimos. Esta medida ha generado un intenso debate legal, técnico y ético: mientras las autoridades judiciales la defienden como una práctica habitual en procesos civiles, usuarios y expertos en privacidad advierten sobre posibles riesgos para los derechos fundamentales y la libertad digital.

La orden responde a una demanda presentada por The New York Times contra OpenAI por supuestas infracciones de derechos de autor. La compañía está siendo acusada de que algunos usuarios habrían utilizado ChatGPT para evadir sistemas de pago del periódico y crear contenido basado en sus artículos. Ante la imposibilidad de acceder a los chats eliminados por defecto, el tribunal ha ordenado a OpenAI retener indefinidamente todos los registros, incluso los borrados por los usuarios.

Dos usuarios afectados intentaron intervenir en el proceso, manifestando preocupación por la vulneración de sus derechos constitucionales. Aidan Hunt, uno de ellos, argumentó que la orden representa una forma de vigilancia masiva a nivel nacional sin consentimiento ni notificación previa, alegando que afecta derechos protegidos por la Cuarta Enmienda y el debido proceso. Además, criticó que no se establecieron excepciones para chats con información altamente sensible, como datos médicos, legales o financieros.

La jueza Ona Wang rechazó estas solicitudes, aclarando que la orden no implica vigilancia estatal ni una intromisión generalizada. En sus palabras, «un mandato de conservación de documentos emitido por un tribunal para un propósito legal limitado no puede considerarse un programa de vigilancia masiva». La información retenida será almacenada en un sistema seguro, accesible solo a personal legal y de seguridad de OpenAI, y bajo la condición de un legal hold.

OpenAI ha manifestado su rechazo a la orden y ha elevado el caso a un tribunal de distrito. La compañía afirma estar comprometida con la protección de la privacidad de sus usuarios y considera que la orden judicial es un exceso. La empresa también ha señalado que los clientes de su API bajo acuerdos de retención cero de datos no se verán afectados.

Por su parte, expertos en derechos digitales, como Corynne McSherry de la Electronic Frontier Foundation, alertan sobre los peligros de que órdenes similares puedan sentar precedentes riesgosos. Advierten que podrán exigir historiales de chat a plataformas de inteligencia artificial y otros servicios digitales, con riesgo de vulnerar la privacidad sin suficiente transparencia. También resaltan la importancia de que las plataformas implementen mecanismos claros para eliminar conversaciones y notificar a los usuarios cuando sus datos estén en procesos legales, para mantener la confianza en estas tecnologías emergentes.

Desde la perspectiva de la ciudadanía, las opciones en estos momentos son limitadas. Aunque no pueden intervenir directamente, si los datos son compartidos con los demandantes, podrían abrirse nuevas vías para reclamar derechos y protección. La repercusión de esta orden judicial trasciende las fronteras de Estados Unidos y afecta también a los usuarios en la Unión Europea, donde las leyes de protección de datos como el RGPD establecen límites claros a la retención indefinida de información personal.

El RGPD requiere que los datos personales se recojan y almacenen solo cuando sea estrictamente necesario y por un tiempo limitado. La retención indefinida de conversaciones, especialmente las que los propios usuarios eliminan, podría violar estos principios. Además, el derecho al olvido permite a las personas solicitar la eliminación de su información personal, un derecho que podría verse contrariado por órdenes judiciales como la orden en cuestión.

Las autoridades de protección de datos en países como Francia y España podrían actuar si consideran que la orden afecta a ciudadanos europeos. En el pasado, empresas como Meta y Google han enfrentado sanciones millonarias por incumplir el RGPD. En el escenario más extremo, OpenAI podría verse forzada a modificar radicalmente sus políticas de tratamiento de datos o a limitar el acceso en la Unión Europea para evitar sanciones, situación que ya ocurrió parcialmente en 2023, cuando Italia suspendió temporalmente ChatGPT por cuestiones de cumplimiento legal.