Se descubre vulnerabilidad en ChatGPT que permitió acceso a datos de Gmail y OpenAI la soluciona antes de su publicación
Una vulnerabilidad descubierta en ChatGPT podría haber permitido a ciberdelincuentes acceder a datos sensibles almacenados en cuentas de Gmail.
Recientemente se ha detectado una grave vulnerabilidad en una función de ChatGPT que podría haber permitido a ciberdelincuentes acceder a información sensible de cuentas de Gmail de usuarios. La brecha fue descubierta por la firma de ciberseguridad Radware y, tras su identificación, OpenAI implementó una corrección en agosto, antes de que se hiciera pública, reduciendo así los riesgos potenciales.
Esta vulnerabilidad afectaba específicamente a la función «deep research» de ChatGPT, diseñada para analizar grandes volúmenes de información proveniente de servicios integrados como Gmail o Google Drive. La vulnerabilidad permitía que un atacante enviara correos electrónicos con instrucciones ocultas que, si eran consultadas mediante ChatGPT, podían hacer que el sistema leyera esos mensajes y filtrara datos personales hacia webs controladas por los hackers.
Lo más alarmante es que la inyección maliciosa no se originaba desde el dispositivo del usuario, sino desde la infraestructura de OpenAI, lo que impedía que las herramientas tradicionales de ciberseguridad detectaran la fuga de información. Esto significaba que la vulnerabilidad era prácticamente invisible para los mecanismos de protección convencionales.
El ataque requería que el usuario solicitara a ChatGPT una búsqueda relacionada con un correo malicioso específico; en esa interacción, el sistema podía ser engañado para revelar información confidencial, como nombres, direcciones y otros datos almacenados en los correos electrónicos. Aunque el riesgo de explotación era limitado, este hecho revela una nueva forma de amenaza en la que la inteligencia artificial puede ser manipulada como vector de ataque.
Desde Radware alertan de que estamos ante un «nuevo tipo de amenaza» en la que los agentes de inteligencia artificial dejan de ser solo herramientas de defensa y se convierten en posibles vectores de ataque. Este incidente pone en evidencia la necesidad de ser muy cuidadosos en el uso de ChatGPT y, en general, de cualquier sistema de IA, especialmente en búsquedas relacionadas con información sensible.
OpenAI fue notificada del fallo a mediados del verano y tomó las medidas pertinentes, lanzando un parche en agosto para minimizar los riesgos para los usuarios. Sin embargo, expertos advierten que estas vulnerabilidades son un recordatorio de las posibles amenazas actuales en el ámbito de la ciberseguridad, donde la misma tecnología que ayuda a proteger puede ser explotada por actores maliciosos para vulnerar la privacidad y seguridad de las personas.