Preocupaciones sobre la protección de datos personales en el uso de inteligencia artificial
La creciente presencia de la inteligencia artificial plantea importantes desafíos en la protección de nuestros datos y privacidad en un entorno digital cada vez más complejo.
La inteligencia artificial (IA) ha ganado protagonismo en nuestra vida cotidiana, siendo herramientas como ChatGPT, Gemini o Meta AI cada vez más comunes en tareas de trabajo, estudio y creación de contenido. Sin embargo, esto plantea importantes interrogantes sobre la protección de los datos personales y el uso que hacen de ellos las empresas desarrolladoras de estas tecnologías.
Al utilizar estos modelos de IA, las personas no solo realizan consultas o instrucciones, sino que también dejan un rastro de información. Por ejemplo, en ChatGPT se recopilan distintos datos, como información de la cuenta (correo electrónico, nombre de usuario, preferencias, historial de conversaciones si está activado), datos técnicos (dirección IP, ubicación aproximada, tipo de dispositivo y navegador) y datos de uso (frecuencia y duración de las sesiones, funciones empleadas). La privacidad depende, por tanto, en gran medida de qué información se comparte y de cómo se configura la cuenta.
Uno de los principales riesgos surge cuando se introducen datos privados o financieros en estas plataformas. Aunque las compañías garantizan que los historiales se utilizan para mejorar los servicios, una brecha de seguridad puede exponer información sensible. En 2023, por ejemplo, se detectó en la dark web la venta de más de 100.000 cuentas comprometidas de ChatGPT, lo que podría facilitar ataques de ingeniería social, suplantación de identidad o chantajes por parte de ciberdelincuentes.
El uso de los datos por parte de las grandes empresas para entrenar sus modelos también genera preocupación. Meta, por ejemplo, actualizó el 15 de mayo de 2025 su política de privacidad para poder emplear publicaciones públicas de personas mayores de 18 años en Facebook e Instagram, así como las interacciones con Meta AI. Aunque es posible oponerse a ello, la negativa no tiene efecto retroactivo, lo que significa que contenidos compartidos antes del cambio podrían seguir siendo utilizados. Las compañías justifican estos usos en el «interés legítimo» de mejorar sus modelos, pero expertos en protección de datos advierten que esto puede vulnerar la privacidad, generar sesgos y dañar la reputación de las personas.
Desde el ámbito legal, en Europa el RGPD y la Ley de Propiedad Intelectual protegen a las personas usuarias, obligando a las empresas a informar sobre el tratamiento de datos y proporcionando mecanismos para ejercer derechos como la oposición o la eliminación de información. Sin embargo, en la práctica, ejercer estos derechos puede resultar complejo, por lo que se recomienda, siempre que sea posible, negar el consentimiento, revisar periódicamente los términos de uso y limitar la cantidad de información personal compartida en internet.
Para proteger la privacidad y la seguridad al usar herramientas de IA, se aconseja tomar varias medidas. Entre ellas, configurar adecuadamente la privacidad y revisar con regularidad las políticas de cada plataforma; no compartir datos sensibles como contraseñas o información bancaria; proteger las cuentas con contraseñas robustas y usar doble autenticación; desactivar el historial de chats cuando la plataforma lo permita; verificar enlaces o archivos generados por IA antes de abrirlos o descargarlos; evitar extensiones no oficiales que puedan contener malware; y cerrar sesión en dispositivos públicos o compartidos para prevenir accesos no autorizados.
En definitiva, la inteligencia artificial ofrece oportunidades potenciales, pero también presenta desafíos en términos de seguridad y protección de datos. Un uso informado y responsable de estas herramientas permite aprovechar sus beneficios sin poner en riesgo la información personal, siempre que se adopten las precauciones adecuadas y se mantenga una actitud vigilante ante posibles amenazas.