Error técnico en ChatGPT permite que conversaciones se filtren en Google Search y genera preocupaciones por la privacidad
Un fallo en ChatGPT ha permitido que conversaciones involuntarias sean visibles en Google Search, generando inquietudes sobre la protección de datos y privacidad.
Un fallo técnico reciente en el modo de navegación de ChatGPT ha puesto en evidencia cómo las interacciones con sistemas de inteligencia artificial pueden filtrarse accidentalmente en motores de búsqueda públicos como Google. Este incidente permitió que conversaciones generadas en la plataforma de OpenAI fueran visibles para propietarios de sitios web, lo que genera preocupación sobre la privacidad y la seguridad de los datos en el uso de IA en infraestructuras públicas.
El problema surgió cuando una etiqueta oculta, conocida como «hints=search», que indicaba a ChatGPT realizar búsquedas en tiempo real, causó la inclusión involuntaria de partes del prompt del usuario en las URL que se compartían con Google. Como los motores de búsqueda indexan automáticamente cualquier contenido relevante, estas URL contenían información privada. Aunque no se expusieron datos sensibles como contraseñas o información personal identificable, el error despertó inquietudes sobre la interacción de la inteligencia artificial con la infraestructura de búsqueda en línea y sus posibles impactos.
El incidente fue detectado por investigadores y analistas tras observar en Google Search Console la aparición inusual de frases completas y detalladas, similares a las que se usan en conversaciones con ChatGPT. La investigación reveló que algunas sesiones de navegación en la plataforma, realizadas con la función de búsqueda activa, se filtraban y sus contenidos se indexaban sin intención por parte de los usuarios.
OpenAI confirmó que el error afectó solo a un pequeño conjunto de búsquedas y que ya fue corregido, aunque no ofreció detalles sobre cuánto tiempo estuvo activo ni cuántos usuarios se vieron afectados. La compañía aseguró además que el fallo no expuso datos sensibles, pero admitió la existencia de una vulnerabilidad en la interacción entre sus agentes y las infraestructuras públicas en línea.
Este episodio no es el primero en que datos generados en ChatGPT terminan en lugares no previstos; anteriormente se había reportado que enlaces compartidos en chats también podían ser indexados, aunque en ese caso la responsabilidad recaía en las configuraciones de uso de los usuarios. Sin embargo, que un fallo tan serio ocurriese sin acción directa del usuario genera mayor alarma sobre las implicaciones en seguridad y privacidad.
Además del riesgo para la privacidad, este fallo podría haber influido en las métricas de tráfico de sitios web, generando picos falsos en las estadísticas de búsquedas y visitas, un fenómeno conocido como «boca de cocodrilo». Este patrón consiste en picos en la aparición en resultados de búsqueda sin un aumento real en la interacción de usuarios, posiblemente alimentado por búsquedas automatizadas realizadas por IA que imitan el comportamiento humano.
Expertos señalan que, a medida que las herramientas de IA y las funciones de navegación en línea se vuelven más comunes, es fundamental que usuarios y desarrolladores sean cada vez más conscientes de los riesgos y adopten medidas para proteger su privacidad. La vigilancia y regulación en torno al uso de IA en infraestructuras abiertas son clave para evitar que errores menores acaben teniendo consecuencias a gran escala en la seguridad y la integridad de la información en línea.