Expertos detectan vulnerabilidad en ChatGPT que expone prompts con información sensible a Google Search Console

TecnologíaChat GPT

Expertos detectan vulnerabilidad en ChatGPT que expone prompts con información sensible a Google Search Console

Una vulnerabilidad en ChatGPT permite que ciertos prompts con datos sensibles sean accesibles públicamente a través de Google Search Console.

Descripción

Recientes descubrimientos de expertos en tecnología han evidenciado un problema relacionado con la seguridad y privacidad en el uso de ChatGPT. Mediante la inspección en Google Search Console (GSC) de varias páginas web, se identificaron alrededor de 200 entradas que parecen ser prompts utilizados en ChatGPT, muchas de ellas con URLs de ChatGPT al inicio del texto. Lo alarmante es que estos prompts, que deberían mantenerse protegidos y privados, se están exponiendo públicamente debido a un error en el sistema.

Este fallo se atribuye a un bug en la capa que transforma los prompts en consultas de búsqueda. En lugar de que el sistema reduzca la entrada del usuario a términos relevantes, en algunos casos se usaba el prompt completo como consulta, incluyendo una URL de ChatGPT al principio. Este error permitía que la búsqueda en Google generara resultados que mostraban estos prompts, algunos con información personal y sensible.

Por su parte, OpenAI no ha confirmado directamente el problema, aunque reconoció haberlo detectado y señaló que ya se ha corregido. La compañía comunicó que el error fue «temporal» y afectó solo a unas pocas consultas, refiriéndose a una falla en la capa que genera consultas a partir de los prompts en ChatGPT.

Expertos en tecnología alertan de que esta vulnerabilidad podría hacer accesibles públicamente los prompts, que en ocasiones contienen información privada y confidencial, a través de Google, e incluso almacenados por terceros que recopilan estos datos. La evidencia muestra que, en algunos casos, los prompts incluyen datos personales, hechos o conversaciones que nunca debieron ser públicos.

Este incidente no es el primero que denuncia filtraciones involuntarias de información privada en el contexto de ChatGPT. Sin embargo, destaca la importancia de revisar los mecanismos internos y posibles vulnerabilidades en el modo en que los modelos de inteligencia artificial gestionan y transforman los datos de entrada, para garantizar la protección de la privacidad de la ciudadanía y evitar futuras exposiciones indeseadas.