Las herramientas de inteligencia artificial como ChatGPT y Claude lideran las filtraciones de datos en las empresas, advierten informes
Las instituciones enfrentan un riesgo creciente por el uso no controlado de IA, que facilita filtraciones de datos confidenciales sin detección fácil.
Un informe alarmante revela que ChatGPT, Copilot y Claude ya superan al almacenamiento en la nube y al correo electrónico como principales causas de filtraciones de datos en el ámbito laboral. Las investigaciones muestran que estas herramientas de inteligencia artificial están exponiendo secretos empresariales a una velocidad preocupante y, en muchos casos, sin que las compañías lo detecten.
Según un reporte de Cyera, casi el 50% de las personas empleadas en empresas usan IA generativa en su trabajo diario, generalmente copiando y pegando información sensible, como datos financieros, información personal identificable y documentos estratégicos, directamente en los chats con estas herramientas. La mayoría de estas interacciones se realizan a través de cuentas personales no gestionadas por la empresa, como ChatGPT o Gemini, lo que permite que una gran cantidad de datos confidenciales esté en riesgo sin la supervisión de los sistemas de seguridad corporativos. El 77% de estas acciones involucra información real de la compañía.
Lo más inquietante es que la forma en que se comparte esta información —mediante copypaste en las ventanas de chat en lugar de cargar archivos— impide que las herramientas tradicionales de detección de fugas identifiquen las filtraciones. Los sistemas de seguridad suelen centrarse en detectar archivos adjuntos sospechosos, descargas o correos electrónicos salientes, sin percibir que los chats con IA, que parecen tráfico web normal, contienen datos confidenciales.
Un reporte de LayerX para el 2025 revela que el 67% de las interacciones con IA se realizan en cuentas personales, lo que dificulta que los equipos de TI puedan monitorear o restringir estas actividades. Al no poder supervisar el uso de cuentas privadas, la IA se convierte en un punto ciego en la seguridad de la información corporativa. En ese contexto, los expertos recomiendan que las empresas adopten medidas de control más estrictas y mejoren la visibilidad sobre el uso de IA en el entorno laboral.
Entre las recomendaciones clave está instruir al personal para que evite copiar y pegar información sensible en chats de IA, especialmente en cuentas no gestionadas, y fomentar una cultura de seguridad que entienda los riesgos asociados con estas tecnologías. Aunque no se propone prohibir completamente el uso de IA, sí es esencial tomar conciencia de que un simple acto de copiar y pegar puede ser suficiente para exponer secretos empresariales y poner en riesgo la competitividad de las organizaciones.