Investigadores revelan vulnerabilidad ShadowLeak en sistemas de inteligencia artificial que podría haber sido aprovechada por cibercriminales

TecnologíaInteligencia artificial

Investigadores revelan vulnerabilidad ShadowLeak en sistemas de inteligencia artificial que podría haber sido aprovechada por cibercriminales

Investigadores descubren ShadowLeak, una vulnerabilidad en sistemas de IA que podría permitir a cibercriminales acceder a información sensible.

Descripción

Investigadores de Radware descubrieron en junio un nuevo tipo de vulnerabilidad en sistemas de inteligencia artificial, a la que denominaron ShadowLeak. Aunque OpenAI respondió rápidamente y solucionó la falla, existe una alta probabilidad de que cibercriminales hayan aprovechado esta vulnerabilidad para obtener acceso no autorizado a información sensible.

La vulnerabilidad se manifiesta mediante correos electrónicos aparentemente inocentes enviados a víctimas, en los que se incrusta en el código HTML una instrucción oculta para ChatGPT. Aunque la mayoría de los usuarios no puede verla, esta instrucción puede ser detectada y ejecutada por ChatGPT si se conecta Gmail mediante la herramienta Deep Research Agent y se le solicita analizar los correos electrónicos.

En ese proceso, ChatGPT estaría obligado a ejecutar la instrucción oculta, lo que permitiría a los cibercriminales manipular el sistema para extraer información confidencial de Gmail y enviarla a servidores externos. Dado que la orden parece legítima, el sistema no genera alertas, y las filtraciones de datos se producen sin activar medidas de seguridad tradicionales.

Lo que hace especial a ShadowLeak es que el ataque ocurre en la nube, fuera del control directo del usuario, a diferencia de otros ataques previos que afectaban los propios sistemas del usuario. Esto hace que las medidas de seguridad convencionales sean ineficaces, permitiendo que cualquier servicio conectado a ChatGPT, como Outlook, Dropbox, Google Drive o SharePoint, también sea vulnerable a estos prompts maliciosos ocultos.

Radware realizó una demostración del ataque usando Gmail, pero advirtió que el mismo principio puede aplicarse a otros servicios integrados con ChatGPT o plataformas similares de inteligencia artificial. Aún no se descarta que otras plataformas de IA puedan ser manipuladas de la misma manera, lo que abre nuevas preocupaciones sobre la seguridad en la era de la inteligencia artificial.

Por fortuna, OpenAI identificó y corrigió la vulnerabilidad, demostrando una respuesta rápida frente a amenazas emergentes. Sin embargo, esto evidencia que en un mundo donde la IA es cada vez más central, las amenazas cibernéticas también evolucionan, exigiendo una vigilancia constante para prevenir filtraciones de datos y garantizar la seguridad de la información.