Actores vinculados a China, Corea del Norte y Rusia escalan el abuso de la IA en ciberataques

Google Threat Intelligence Group (GTIG) acaba de publicar su último informe AI Threat Tracker, que documenta cómo los actores de amenazas globales han pasado de la experimentación con IA a un uso a escala industrial. Este último informe es una actualización de otra edición publicada el pasado mes de febrero, aportando nuevas conclusiones clave:

  • Escalada en el uso de la IA a nivel estatal por parte de China y Corea del Norte:
    • Corea del Norte (actor APT45) ha utilizado la IA para validar miles de exploits, construyendo un arsenal robusto que sería imposible de gestionar sin asistencia de IA.
    • En China, actores como UNC2814 utilizan identidades falsas de «expertos» en seguridad para engañar a la IA y conseguir que investigue vulnerabilidades en hardware, como routers.
    • También se observó que un actor vinculado a China utilizaba herramientas de inteligencia artificial para sondear de forma autónoma y persistente las vulnerabilidades de una empresa tecnológica japonesa.
  • Campañas de desinformación rusas: La campaña prorrusa ‘Operation Overload’ ha empleado la clonación de voz por IA para suplantar a periodistas reales, insertando audio falso en clips de noticias legítimas para difundir desinformación en EE. UU., Ucrania y Francia. Además, otros actores vinculados a Rusia han utilizado código señuelo generado por IA para ocultar funcionalidades maliciosas de los escáneres de seguridad.
  • Primer caso de un Día Cero desarrollado con IA: Google ha identificado un exploit de Día Cero (una vulnerabilidad que permite saltarse la autenticación de doble factor o 2FA) que probablemente fue descubierto y convertido en arma con la ayuda de un modelo de IA. El script contenía señales reveladoras, como una puntuación de seguridad CVSS alucinada.
    • Esta es la primera evidencia que hemos visto de que los ciberdelincuentes utilizan con éxito la IA para desarrollar una vulnerabilidad de Día Cero.
    • Desde Google, informamos al desarrollador sobre la vulnerabilidad de Día Cero y se emitió un parche, lo que redujo significativamente el riesgo de esta amenaza en particular.
    • La detección proactiva de Google probablemente evitó su uso en un ataque masivo planeado.
  • Malware autónomo y agentes: Se están integrando herramientas agénticas en la actividad de los ciberdelincuentes, lo que les permite escalar sus operaciones significativamente.
    • PROMPTSPY, un nuevo backdoor de Android que utiliza IA para navegar de forma autónoma por la interfaz del dispositivo de la víctima y bloquear los intentos de desinstalación.
    • El popular framework de IA OpenClaw también se ha convertido en objetivo de hackers para probar y perfeccionar sus capacidades de ataque en entornos controlados.
  • Ataques a la cadena de suministro de IA: Cibercriminales como TeamPCP han llevado a cabo ataques a dependencias de software de IA, como LiteLLM, para robar secretos en la nube de alto valor y claves de AWS de los entornos de desarrollo.

¿Por qué son importantes estos hallazgos?

“Existe la idea errónea de que la carrera por la vulnerabilidad de la IA es inminente. La realidad es que ya ha comenzado. Por cada vulnerabilidad de Día Cero que podemos atribuir a la IA, probablemente existan muchas más. Los ciberdelincuentes están utilizando la IA para aumentar la velocidad, la escala y la sofisticación de sus ataques. Les permite probar sus operaciones, mantener la persistencia contra sus objetivos, crear mejor malware y lograr muchas otras mejoras. Los actores estatales están aprovechando esta tecnología, pero no se debe subestimar la amenaza criminal, especialmente dada su trayectoria de ataques generalizados y agresivos”, ha afirmado John Hultquist, Chief Analyst de Google Threat Intelligence Group (GTIG).

Cómo protege Google contra el abuso de la IA

Google está combatiendo la IA con IA. La investigación de amenazas como este AI Threat Tracker informa nuevas innovaciones de productos y mejora las salvaguardas de los productos para los usuarios de Google Security para mitigar el abuso de modelos desactivando cuentas maliciosas. La identificación incluye el uso de Big Sleep, un agente de IA que encuentra errores de software antes que los hackers, y CodeMender, que utiliza el razonamiento de Gemini para corregir automáticamente agujeros de seguridad críticos.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.

TE PUEDE GUSTAR

RECIBE LA NEWSLETTER

*Email: *Nombre apellidos: *Empresa: Cargo: Sector:

 
Please don't insert text in the box below!

ARTÍCULOS MÁS RECIENTES

ESCUCHA NUESTRO PODCAST

SÍGUENOS EN RRSS

MÁS COMENTADOS

Scroll al inicio
Resumen de privacidad

Las cookies y otras tecnologías similares son una parte esencial de cómo funciona nuestra web. El objetivo principal de las cookies es que tu experiencia de navegación sea más cómoda y eficiente y poder mejorar nuestros servicios y la propia web. Aquí podrás obtener toda la información sobre las cookies que utilizamos y podrás activar y/o desactivar las mismas de acuerdo con tus preferencias, salvo aquellas Cookies que son estrictamente necesarias para el funcionamiento de la web de CyberSecurityNews. Ten en cuenta que el bloqueo de algunas cookies puede afectar tu experiencia en la web y el funcionamiento de la misma. Al pulsar “Guardar cambios”, se guardará la selección de cookies que has realizado. Si no has seleccionado ninguna opción, pulsar este botón equivaldrá a rechazar todas las cookies. Para más información puedes visitar nuestra Políticas de Cookies. Podrás cambiar en cualquier momento tus preferencias de cookies pinchando en el enlace “Preferencias de cookies” situado en la parte inferior de nuestra web.