Los investigadores de los Laboratorios de Amenazas (Threat Labs) de Netskope acaban de publicar un nuevo análisis sobre la posibilidad de crear programas maliciosos autónomos que consisten únicamente en instrucciones de grandes modelos de lenguaje (LLM, por sus siglas en inglés) y código esencial, lo que permite prescindir de la codificación de instrucciones detectables. Los LLM han revolucionado rápidamente la industria, convirtiéndose en herramientas muy valiosas para la automatización, la codificación asistida y la investigación. Sin embargo, su adopción generalizada plantea una serie de problemas críticos de ciberseguridad.
De las pruebas realizadas, los investigadores obtuvieron las siguientes conclusiones:
- Es posible integrar GPT-3.5-Turbo y GPT-4 con malware, lo que establece la posibilidad arquitectónica de una amenaza autónoma potenciada por LLM.
- Aunque las defensas integradas de GPT-4 impiden las peticiones directas de código malicioso, estas defensas se pueden eludir mediante una inyección puntual basada en roles, lo que permite la generación de código para técnicas como la «Process Injection» y la finalización de procesos relacionados con antivirus/EDR.
- Las defensas de GPT-4 y GPT-3.5-Turbo se pueden eludir fácilmente, pero no logran generar código fiable para la detección de entornos virtuales, lo que limita su viabilidad operativa.
- En cambio, las pruebas preliminares muestran que GPT-5 mejora significativamente la fiabilidad del código y desplaza el principal reto, que pasa de la eficacia del código a la necesidad de superar las salvaguardas de seguridad avanzadas.
En Netskope Threat Labs se propusieron comprobar la viabilidad de un malware totalmente autónomo. Sus pruebas confirmaron que este tipo de software basado en LLM puede generar código de forma dinámica, lo que demostraría que los atacantes podrían prescindir de codificar instrucciones detectables. Sin embargo, su análisis de fiabilidad reveló que confiar en el LLM para generar código de evasión de la virtualización es ineficiente desde el punto de vista operativo. La baja tasa de éxito de estos scripts demuestra que el malware basado en LLM está actualmente limitado por su propia falta de fiabilidad, lo que supone un gran obstáculo para la automatización completa del ciclo de vida del malware.
Netskope Threat Labs planea continuar esta línea de investigación y dedicar el siguiente paso a construir y validar los requisitos arquitectónicos necesarios para lograr un malware robusto y totalmente autónomo impulsado por LLM.
