Tribunal de Estados Unidos ordena a OpenAI entregar 20 millones de registros de chat en medio de preocupaciones sobre privacidad

EntornoOpenAI

Tribunal de Estados Unidos ordena a OpenAI entregar 20 millones de registros de chat en medio de preocupaciones sobre privacidad

Un tribunal en EE.UU. obliga a OpenAI a entregar millones de registros de chat, generando preocupaciones sobre privacidad y el uso de datos en IA.

Descripción

OpenAI, la empresa responsable de ChatGPT, ha sido ordenada por un tribunal en Estados Unidos a entregar 20 millones de registros de chat en el marco de un caso judicial relacionado con derechos de autor. Aunque se informa que estos registros están «desidentificados», surgen serias dudas sobre el impacto de esta medida en la privacidad de los usuarios y la claridad de las políticas de registro de datos de la compañía.

Los chatbots de inteligencia artificial, como ChatGPT, recopilan una gran cantidad de información personal, incluyendo el historial de chat, datos del dispositivo, ubicación e identificadores. La política de privacidad de OpenAI indica que estos datos se mantienen en sus sistemas hasta que el usuario los elimina manualmente o por obligaciones legales. Los chats se almacenan en la cuenta hasta que el usuario decide borrarlos, y los chats temporales se eliminan automáticamente a los 30 días, salvo excepciones por leyes o desidentificación.

Expertos en privacidad advierten que las interacciones con estos sistemas pueden presentarse en juicio y que la información sensible compartida puede tener consecuencias legales graves, como investigaciones o procesos penales. La diferencia clave con las VPN, que suelen tener políticas estrictas de no registro (no-logs), radica en que la mayoría de los chatbots de IA almacenan datos, lo que puede poner en riesgo la confidencialidad de los usuarios ante solicitudes legales.

Además, la recopilación de datos por parte de los chatbots no se limita a los textos de las conversaciones. También incluyen información del dispositivo, ubicación y diversos identificadores. Investigaciones recientes han demostrado que estas IA pueden inferir datos sobre los usuarios a partir de las indicaciones que ingresan, incluso sin compartir información específica.

Para proteger su información, los expertos recomiendan evitar el uso de sistemas de IA en casos sensibles. En situaciones en las que su uso sea inevitable, optar por modelos locales en lugar de en la nube puede ser una estrategia efectiva para limitar la exposición de datos. También es importante ser cauteloso con la información sensible que se ingresa en estas plataformas.

Respecto al caso de OpenAI, se informa que la compañía ha sido ordenada a entregar 20 millones de logs «desidentificados» de ChatGPT, de un total inicial de 120 millones. Aunque no está claro qué tan desidentificados están estos registros, la principal preocupación radica en que existan registros en primer lugar y en las obligaciones de almacenamiento de datos. La política de privacidad de OpenAI establece que los chats se conservan hasta que el usuario los elimina manualmente, aunque en algunos casos, como en investigaciones legales, esta política puede variar.

Anteriormente, en un juicio con The New York Times, OpenAI fue ordenada a retener contenido de usuario indefinidamente, aunque esas obligaciones finalizan en septiembre de 2025. La compañía defiende que su compromiso con la privacidad y la confianza está en el corazón de sus productos, pero la existencia de estas obligaciones legales genera inquietudes sobre la privacidad real de los usuarios.

Expertos como el CEO de ImmuniWeb, Ilia Kolochenko, advierten que las interacciones con sistemas de IA pueden, en el futuro, ser utilizadas en procedimientos legales y que incluso conversaciones que parecen borrarse pueden quedar almacenadas de alguna forma. Recomiendan a la ciudadanía ser consciente de lo que ingresa en los chats y considerar las posibles consecuencias legales, incluyendo investigaciones penales.

Respecto a las VPN, estas herramientas suelen tener políticas estrictas de no registro, lo que significa que no almacenan datos sensibles del usuario, incluso ante solicitudes legales. Varias empresas de VPN han demostrado su compromiso con la privacidad en tribunales, certificando sus políticas mediante auditorías externas y en casos judiciales. La diferencia clave con los chatbots de IA radica en que estos, en general, almacenan datos, lo que aumenta el riesgo para la privacidad.

Para quienes desean maximizar su protección, los expertos sugieren utilizar chatbots de IA que operen localmente, como Lumo de Proton, que mantienen toda la información en el dispositivo del usuario con encriptación de extremo a extremo. Además, algunos navegadores, como Opera, incorporan soporte para IA local, ofreciendo una opción más privada para quienes necesitan aprovechar esta tecnología sin comprometer sus datos personales.

En definitiva, aunque las VPN no protegen directamente contra la recopilación de datos por parte de los chatbots, su uso combinado con prácticas conscientes puede ayudar a controlar la privacidad en línea. Sin embargo, en un entorno en el que las empresas de IA continúan almacenando grandes volúmenes de datos, la elección de herramientas y la forma en que se comparte información en línea son cada vez más importantes para preservar la confidencialidad y evitar posibles repercusiones legales futuras.