Expertos alertan sobre riesgos de privacidad en el uso de inteligencia artificial para conversaciones personales
La expansión de la inteligencia artificial plantea inquietudes sobre la protección de datos y la confidencialidad en conversaciones personales.
El auge de la inteligencia artificial ha acelerado la realización de tareas antes complejas, permitiendo que muchas personas accedan a servicios y respuestas en cuestión de segundos. Sin embargo, con la expansión de plataformas como ChatGPT y otras webs de mensajería con IA, han surgido importantes preocupaciones relacionadas con la privacidad y la confidencialidad de las conversaciones de los usuarios.
El CEO de OpenAI, Sam Altman, fue invitado al podcast del humorista estadounidense Theo Von, donde advirtió sobre los riesgos de usar la IA como confidente o psicólogo personal. Altman explicó que la industria aún no ha desarrollado mecanismos adecuados para proteger la privacidad en conversaciones que, en muchos casos, contienen información muy personal. A diferencia del ámbito médico o legal, con privilegios y confidencialidad garantizados por ley, actualmente no existe una estructura legal que asegure lo mismo en las interacciones con IA.
Altman destacó que muchas personas, especialmente jóvenes, utilizan ChatGPT para hablar de temas sensibles y resolver problemas personales y de salud mental, sin garantías claras de confidencialidad. La ausencia de una regulación efectiva genera riesgos y desconfianza en la adopción masiva de esta tecnología.
Por otra parte, OpenAI ha estado en el centro de la polémica tras la demanda presentada por The New York Times en diciembre de 2023. El diario acusó a la empresa de exigir la conservación indefinida de los datos de los usuarios, lo que ha generado inquietudes sobre la privacidad y el uso de información personal. La compañía ha respondido impugnando esta orden judicial, argumentando que obligar a guardar todos los chats viola la confianza y la privacidad de millones de usuarios, excepto en el caso de los clientes de ChatGPT Enterprise.
Desde OpenAI han manifestado que consideran la orden de The New York Times una extralimitación legal y han apelado para proteger el derecho a la privacidad de la ciudadanía. La disputa sigue en curso, en medio de una creciente demanda social y legal para establecer marcos de protección más sólidos en el uso de la inteligencia artificial. Esta problemática revela la necesidad urgente de desarrollar políticas y regulaciones que aseguren la confidencialidad y protejan a las personas en un entorno cada vez más digital y automatizado.