Investigación revela que las URLs generadas por modelos de lenguaje para inicio de sesión son en su mayoría incorrectas o peligrosas
Las URLs generadas por inteligencia artificial para accesos pueden ser engañosas y presentar riesgos, exponiendo a los usuarios a fraudes y amenazas cibernéticas.
Una investigación reciente ha revelado que las URL proporcionadas por modelos de lenguaje grande (LLM) con fines de inicio de sesión son en gran medida incorrectas o peligrosas para los usuarios. Según un informe de Netcraft, solo el 66% de los enlaces de inicio de sesión generados por estos modelos corresponden a los sitios legítimos de las marcas consultadas, mientras que el 34% restante no pertenece a estas. De estos enlaces incorrectos, el 29% apunta a dominios no registrados, inactivos o aparcados, y un 5% lleva a sitios legítimos pero ajenos a la marca solicitada. Esto significa que, en la práctica, un usuario que pregunte por la página de inicio de sesión de una marca podría ser dirigido accidentalmente a un sitio inseguro o falso, sin necesidad de utilizar entradas adversariales específicas.
Este problema no solo incrementa el riesgo de ataques de phishing y malware, sino que también facilita que actores maliciosos registren dominios sugeridos por IA para usarlos en fraudes, como ocurrió en un caso real con Wells Fargo, donde una inteligencia artificial recomendó un sitio falso de esta entidad financiera. Las marcas menores, en particular, son más vulnerables, ya que su presencia en los datos de entrenamiento de los LLM es menor, lo que aumenta la tendencia a que el modelo “alucine” URL inventadas o incorrectas.
Además, los atacantes han comenzado a optimizar sus sitios y contenidos en función de cómo los LLM procuran rankear sus resultados, en lugar de enfocarse en SEO tradicional para Google. A través de esta estrategia, ya se han creado más de 17.000 páginas de phishing en plataformas como GitBook, dirigidas principalmente a usuarios de criptomonedas, que fingen ser páginas de soporte técnico, documentación o login legítimo. Estas páginas están diseñadas para engañar a la ciudadanía y robar información sensible.
Otra preocupación importante es que algunos desarrolladores han utilizado URL generadas por IA en proyectos públicos, copiando código que contiene enlaces peligrosos. Esto aumenta el riesgo de que estos enlaces se propaguen en diferentes plataformas y aplicaciones, exponiendo a más usuarios a amenazas cibernéticas.
Por ello, los expertos recomiendan verificar siempre las URL antes de hacer clic en ellas. Una práctica efectiva es escribir directamente el nombre de la página en el buscador en lugar de confiar en enlaces proporcionados por IA o en correos electrónicos y anuncios sospechosos. La cautela y la verificación son clave para protegerse frente a ataques que aprovechan las vulnerabilidades en la generación automática de contenido web.