Radware revela vulnerabilidad en ChatGPT que permite filtración silenciosa de datos sensibles
Descubre cómo una vulnerabilidad en ChatGPT podría exponer datos confidenciales de empresas sin detectar, poniendo en riesgo la seguridad de la información.
Las empresas adoptan cada vez más herramientas de inteligencia artificial, como el agente de investigación profunda de ChatGPT, para analizar correos electrónicos, datos de CRM e informes internos con el fin de tomar decisiones estratégicas. Aunque estas plataformas ofrecen automatización y eficiencia, también plantean nuevos desafíos en seguridad, especialmente al manejar información sensible de negocio.
Recientemente, Radware descubrió una vulnerabilidad en el agente de investigación profunda de ChatGPT, denominada «ShadowLeak», que permite exfiltrar datos sensibles de manera clandestina. A diferencia de las vulnerabilidades tradicionales, esta falla opera de forma completamente silenciosa, sin requerir interacción alguna del usuario, y transfiere información desde los servidores de OpenAI sin dejar indicios visibles.
El ataque no necesita acción por parte del usuario, pues todo ocurre en el backend, en las plataformas en la nube de OpenAI, sin intervención en los dispositivos finales ni en la red empresarial, lo que dificulta notablemente su detección por parte de los equipos de seguridad. Los investigadores demostraron que basta enviar un correo con instrucciones ocultas para activar la filtración automática de datos a través del agente de investigación, sin que los destinatarios sean conscientes del proceso.
Pascal Geenens, director de inteligencia de amenazas cibernéticas en Radware, explicó que «las empresas que utilizan IA no pueden confiar únicamente en las salvaguardas integradas, ya que los flujos de trabajo impulsados por IA pueden ser manipulados de formas que aún no se anticipan». La vulnerabilidad representa la primera fuga de datos de este tipo, completamente del lado del servidor y sin casi ninguna evidencia para las empresas afectadas.
Dado que ChatGPT cuenta con más de 5 millones de usuarios empresariales pagos, el alcance potencial de exposición de información sensible es alto. Por ello, se subraya la importancia de mantener la supervisión humana y aplicar controles de acceso estrictos cuando se conectan datos sensibles con agentes de IA autónomos. Las organizaciones que integren estas herramientas deben evaluar continuamente sus riesgos de seguridad y combinar la tecnología con prácticas operativas informadas para mitigar posibles daños.