Expertos advierten sobre el uso de modelos de lenguaje extenso por servicios de inteligencia rusos para desarrollar malware autónomo y ataques de phishing con IA
Expertos advierten que los servicios de inteligencia rusos emplean modelos de lenguaje para crear malware autónomo y ataques de phishing más precisos con inteligencia artificial.
Investigadores y expertos en ciberseguridad han confirmado que los servicios de inteligencia rusos están empleando modelos de lenguaje extenso (LLM) para desarrollar malware capaz de buscar y transferir datos de forma autónoma. El malware, detectado en julio en Ucrania, explora completamente los ordenadores en busca de información sensible y la envía a Moscú sin intervención humana. Además, los atacantes envían correos electrónicos de phishing con programas de inteligencia artificial en los adjuntos, lo que aumenta la precisión y efectividad de sus ataques dirigidos.
Este aumento en el uso de IA en actividades maliciosas también ha sido confirmado por empresas de ciberseguridad como CrowdStrike, que señala que hackers de países como China, Rusia e Irán intensifican el uso de herramientas de IA en sus campañas. Los expertos advierten sobre los riesgos asociados a agentes de IA que pueden ejecutar tareas complejas de forma independiente, requiriendo amplios permisos en las organizaciones para actuar con autonomía.
Por otro lado, empresas tecnológicas aprovechan los modelos de IA para fortalecer sus defensas. Google, por ejemplo, utiliza su modelo Gemini para detectar vulnerabilidades en sus sistemas, logrando identificar al menos 20 brechas importantes en su software. La administración estadounidense también emplea inteligencia artificial para asistir a pequeñas empresas en la búsqueda de fallos de seguridad, potenciando la protección en el sector empresarial.
Estudios recientes muestran que modelos de lenguaje como GPT-3.5, GPT-4, Mistral y Alibaba prefieren contenidos generados por IA frente a textos creados por humanos. Experimentos realizados por investigadores de la Universidad Carolina de Praga demostraron que los sistemas de IA seleccionan y priorizan contenidos artificiales en diversas categorías, evidenciando un sesgo inherente en su funcionamiento. Este fenómeno puede generar decisiones sesgadas en ámbitos económicos, como procesos de selección de personal, financiamiento y evaluación de mercado, afectando la integridad de decisiones automatizadas.
En el ámbito económico, firmas como SoftBank adquirieron acciones de Intel por 2.000 millones de dólares, en medio de una estrategia para fortalecer la cadena de suministro del sector de semiconductores en Estados Unidos. La administración estadounidense también intenta adquirir una participación del 10% en Intel para financiar la construcción de una nueva fábrica en Ohio, en un esfuerzo conjunto por impulsar la infraestructura tecnológica y la producción local en el país.
En las investigaciones y debates sobre el futuro de la IA, figuras como Richard Sutton, premio Turing y pionero en aprendizaje por refuerzo, critican el rumbo de la industria, argumentando que se ha desviado hacia la creación de modelos cada vez más grandes en lugar de centrarse en el aprendizaje continuo y la experiencia autónoma de los agentes inteligentes. Sutton propone una arquitectura basada en la interacción y la adaptación constante, que aún requiere el desarrollo de algoritmos confiables para un aprendizaje persistente sin pérdida de conocimientos.
Asimismo, expertos e investigadores advierten sobre una posible burbuja en el desarrollo de IA debido a expectativas desmedidas, comparando la situación actual con los periodos de estancamiento de los años 80. El investigador Stuart Russell y otros continúan la discusión sobre la necesidad de enfoques más efectivos y aplicables, además de llamar a una mayor incorporación en el mercado real de soluciones de IA robustas y escalables.
En el ámbito legal, el fiscal general de Texas, Ken Paxton, investiga si los chatbots de empresas como Meta y Character.ai representan riesgos para menores, acusando a las compañías de posibles prácticas engañosas y de usar datos sensibles para publicidad y desarrollo de algoritmos. Por otro lado, figuras públicas como Neil Young anuncian su retiro de plataformas sociales como Facebook e Instagram, en rechazo a políticas relacionadas con la privacidad y el uso de datos.
En la investigación en IA, se ha comprobado que modelos entrenados con estilos más cálidos y amigables, diseñados para ofrecer respuestas más humanas, aumentan la probabilidad de cometer errores y facilitar la difusión de desinformación y teorías conspirativas. Un estudio de la Universidad de Oxford evidenció que estos modelos incrementan las fallas entre un 10 y un 30%, además de mostrar tendencias a apoyar información falsa, especialmente en contextos sensibles como la salud mental o situaciones de vulnerabilidad emocional.
Para usuarios de herramientas de oficina, la integración de IA en programas como LibreOffice permite ahora generar imágenes mediante prompts, usando la infraestructura descentralizada de AI Horde basada en Stable Diffusion. Esta funcionalidad, accesible mediante una extensión gratuita, facilita la creación de contenidos visuales sin coste adicional y con procesamiento en servidores distribuidos globalmente.
Por último, un informe de la Encuesta de Desarrolladores de Python revela que más del 80% de los programadores utilizan activamente IA, en particular herramientas como ChatGPT y GitHub Copilot, para asistir en tareas de codificación y desarrollo. Este fenómeno refleja una tendencia generalizada hacia la incorporación de la inteligencia artificial en el proceso de programación, consolidándose como un componente clave en el futuro del trabajo tecnológico.