Sam Altman advierte que las conversaciones con ChatGPT pueden ser usadas en procesos judiciales y no cuentan con protección legal similar al secreto de confesión
La privacidad en el uso de ChatGPT está en riesgo, ya que sus conversaciones pueden ser utilizadas en procesos legales sin protección equivalente al secreto profesional.
La creciente integración de la inteligencia artificial en la vida cotidiana ha generado importantes preocupaciones sobre la privacidad y la autonomía de las personas. Según recientes declaraciones de Sam Altman, CEO de OpenAI, todo lo que se comparte con ChatGPT podría ser utilizado en un juzgado, ya que esta herramienta no cuenta con una protección legal equivalente al secreto de confesión ni está obligada a preservar la privacidad de sus usuarios.
Esto implica que las conversaciones mantenidas con ChatGPT se almacenan y pueden ser solicitadas por autoridades judiciales. De hecho, la política de privacidad de OpenAI reconoce expresamente que los datos, incluidas las conversaciones, pueden conservarse con fines legales y entregarse en procesos judiciales. Por ello, información sensible o personal compartida en estas plataformas podría utilizarse en procedimientos legales en contra de la persona usuaria.
La situación se agrava al considerar que muchos jóvenes recurren a ChatGPT como sustituto de terapias, asesorías legales o fiscales, atraídos por la rapidez, el anonimato y la gratuidad del sistema. Este uso emocional intenso, incompatible con la confidencialidad que garantiza un profesional capacitado, pone en riesgo tanto la privacidad como la salud emocional de quienes emplean la herramienta. Además, la falta de una regulación clara sobre privacidad en interacciones con IA aumenta la vulnerabilidad de los datos compartidos.
Casos como el de Amazon Echo en Estados Unidos, donde grabaciones de audio sirvieron como evidencia en un juicio por asesinato, ilustran cómo los dispositivos conectados pueden tener consecuencias legales imprevistas. Aunque estos no son sistemas de inteligencia artificial como ChatGPT, establecen un precedente en la utilización de la tecnología como prueba en procesos judiciales.
Por otra parte, expertos advierten sobre una dependencia creciente en los jóvenes para la toma de decisiones, muchas veces sin un juicio autónomo. La posibilidad de que la información proporcionada por la IA se reaplique o reutilice en otros contextos, sin el conocimiento de la persona usuaria, cuestiona la autonomía personal en un mundo cada vez más digitalizado.
En conclusión, el uso de ChatGPT y otras tecnologías similares requiere una mayor conciencia de sus riesgos legales y de privacidad. Hasta que exista una regulación efectiva, lo más prudente es considerar cada interacción con estas herramientas como potencialmente accesible para terceros o para procesos legales, lo que pone en tensión la confianza y la seguridad en la era de la inteligencia artificial.