Incremento del uso de modelos de lenguaje maliciosos por cibercriminales para generar contenido engañoso y evadir medidas de seguridad

EntornoInteligencia artificial

Incremento del uso de modelos de lenguaje maliciosos por cibercriminales para generar contenido engañoso y evadir medidas de seguridad

El uso de modelos de lenguaje de IA con fines maliciosos está en aumento, facilitando la creación de contenido engañoso y evadiendo sistemas de seguridad.

Descripción

Cada vez más cibercriminales utilizan grandes modelos de lenguaje de inteligencia artificial (IA) con fines maliciosos. Según un informe de Cisco Talos, estos delincuentes aprovechan herramientas como Llama2 uncensored, White Rabbit Neo, GhostGPT, WormGPT y DarkGPT para crear contenido peligroso y engañoso, eludiendo las medidas de seguridad integradas en los modelos oficiales. Estas barreras, conocidas como guardrails, están diseñadas para impedir respuestas a solicitudes ilegales o dañinas, pero técnicas como la inyección de prompts (prompt injection) permiten sortear estas restricciones.

Los modelos sin filtros, que carecen de estas limitaciones de seguridad, se utilizan para generar mensajes de phishing muy realistas, programación de malware, sitios web falsos y manipulaciones de datos que facilitan delitos cibernéticos. Además, estos modelos maliciosos se venden en la dark web, donde se adquieren herramientas para crear ransomware, troyanos, wipers, scripts y explotar vulnerabilidades en sistemas y redes. Incluso desarrollan configuraciones manipuladas, verifican datos robados y diseñan estrategias criminales innovadoras.

Expertos en ciberseguridad recomiendan medir y supervisar el tráfico de datos relacionado con IA, detectar entradas sospechosas y capacitar al personal para reconocer intentos de phishing generados por IA. También aconsejan utilizar solo modelos confiables y plataformas bien protegidas para reducir riesgos. Además, existen servicios como jailbreakings y deepfake, empleados por hackers con fines maliciosos, que agravan aún más la amenaza que representan estas tecnologías.