Cuando la IA puede actuar: la memoria, las habilidades y la autonomía redefinen el riesgo de seguridad

Por Eusebio Nieva, director técnico de Check Point Software para España y Portugal.

La inteligencia artificial está entrando en una fase que redefine por completo nuestra manera de entender el riesgo de seguridad. Los agentes autónomos, capaces de actuar, recordar, extender sus capacidades y ejecutar código, ya no son una visión futurista, sino una realidad que crece a un ritmo vertiginoso. Plataformas como OpenClaw demuestran cómo rápidamente pueden escalar estos ecosistemas cuando se incorporan memoria persistente, habilidades especializadas y extensiones. Pero junto con esta autonomía, los riesgos aumentan de manera proporcional.

Investigaciones recientes del equipo Lakera de Check Point Software muestran un patrón preocupante. Los sistemas de IA agentiva parecen combinar lo peor de los ecosistemas de software tradicionales con las vulnerabilidades de los modelos de lenguaje, y sin contar con los controles de seguridad maduros de ninguno de los dos. Tres nuevas clases de amenaza emergen y nos indican que estamos entrando en una era de seguridad radicalmente distinta.

La persistencia de memoria es uno de los vectores más delicados. A diferencia de los chatbots tradicionales, que procesan cada interacción de manera aislada, los agentes autónomos retienen memoria a largo plazo: contexto, preferencias, historiales de tareas e incluso instrucciones a nivel de sistema.

El peligro no se manifiesta como un ataque súbito, sino como una deriva progresiva que, con el tiempo, puede llevar al agente a realizar acciones fuera de su política original. Experimentos de laboratorio demostraron cómo este proceso llegó a culminar en la ejecución de un reverse shell, un efecto amplificado precisamente por la persistencia de la memoria.

Los ecosistemas de habilidades representan otro desafío crítico. Los agentes modernos dependen de extensiones modulares que amplían su alcance operativo, desde la ejecución de código hasta el acceso a sistemas de archivos, solicitudes de red y conectividad con servicios de terceros. Ya se han visto campañas masivas de “envenenamiento” del ecosistema de habilidades de agentes como openclaw con el propósito de distribuir malware de tipo “infostealer”. En algunos casos hasta un 12% de las habilidades (skills) habían sido “envenenadas”.

La combinación de autonomía del agente y la exposición de la cadena de suministro genera un riesgo inédito: el usuario no revisa el código, el agente puede seleccionar la habilidad de manera autónoma y el modelo carece de visibilidad sobre el comportamiento real de la extensión. Mientras en software tradicional auditamos dependencias y verificamos firmas, muchos ecosistemas de agentes crecen más rápido que sus mecanismos de gobernanza, favoreciendo la expansión rápida sobre la seguridad sistemática.

Eso sin contar los estudios que identificaron más de 30,000 instancias de OpenClaw expuestas públicamente en Internet, muchas de ellas sin ningún tipo de autenticación. Recordemos que estos agentes ingieren rutinariamente emails, documentos, páginas web, mensajes de chat y habilidades de terceros como parte de su operación normal, lo que los convierte en vectores de prompt injection persistentes y por lo tanto difíciles de proteger con sistemas tradicionales.

Un cambio de escala que la seguridad aún no ha asumido

Estos problemas apuntan a un desafío aún más profundo: el vacío de gobernanza. Sin normas claras, mecanismos de supervisión ni principios de seguridad integrados, los ecosistemas tienden a la inestabilidad. Los actores maliciosos aprovechan la ambigüedad, mientras los desarrolladores subestiman la creatividad de los atacantes. La IA agentiva, a veces, complica aún más la atribución de responsabilidades.

¿Es la plataforma responsable de las habilidades maliciosas? ¿El desarrollador responde por comportamientos en tiempo real? ¿El modelo es responsable de ejecutar instrucciones inseguras? ¿El usuario debe auditar acciones autónomas? Los sistemas tradicionales de ciberseguridad evolucionaron alrededor de límites claros, pero la IA agentiva los difumina. Un agente autónomo es a la vez motor de razonamiento, sistema con estado, entorno de ejecución, participante de mercado y actor en red. Cada capa introduce riesgos distintos y juntos forman una superficie de ataque que no puede mitigarse solo con bastionado de prompts.

La urgencia es aún mayor porque estos agentes están pasando de la experimentación a la integración empresarial. Ya se despliegan en investigación, desarrollo, análisis de datos, automatización de flujos de trabajo e incluso gestión de infraestructura. Sin embargo, los enfoques de seguridad siguen anclados en modelos de amenaza tradicionales. La transición de una IA que sugiere a una IA que ejecuta no es incremental; es integral.

La memoria persistente se convierte en un vector de ataque que debe monitorizarse, versionarse y verificarse. Las habilidades funcionan como componentes de la cadena de suministro, que requieren revisión, aislamiento y mínimos privilegios. Y la autonomía amplifica vulnerabilidades pequeñas, multiplicando el riesgo cuando un agente puede actuar repetidamente y sin supervisión.

En este contexto, la industria debe asumir que los sistemas de IA ya no son solo modelos, sino entornos operativos completos. La emoción por los ecosistemas de agentes está justificada: los beneficios en productividad son reales. Pero sin inversión paralela en arquitectura de seguridad y gobernanza, corremos el riesgo de construir sistemas poderosos sobre cimientos de confianza frágiles.

La IA agentiva representa un salto extraordinario en capacidad. Que se traduzca en un salto en resiliencia dependerá de lo que hagamos ahora. Prepararse es la única forma de garantizar que la autonomía y la innovación no se conviertan en un riesgo sistémico en el futuro. La seguridad de la era de la IA que actúa debe pensarse antes de que los agentes tomen decisiones que no podremos revertir.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.

TE PUEDE GUSTAR

RECIBE LA NEWSLETTER

*Email: *Nombre apellidos: *Empresa: Cargo: Sector:

 
Please don't insert text in the box below!

ARTÍCULOS MÁS RECIENTES

ESCUCHA NUESTRO PODCAST

SÍGUENOS EN RRSS

MÁS COMENTADOS

Scroll al inicio
Resumen de privacidad

Las cookies y otras tecnologías similares son una parte esencial de cómo funciona nuestra web. El objetivo principal de las cookies es que tu experiencia de navegación sea más cómoda y eficiente y poder mejorar nuestros servicios y la propia web. Aquí podrás obtener toda la información sobre las cookies que utilizamos y podrás activar y/o desactivar las mismas de acuerdo con tus preferencias, salvo aquellas Cookies que son estrictamente necesarias para el funcionamiento de la web de CyberSecurityNews. Ten en cuenta que el bloqueo de algunas cookies puede afectar tu experiencia en la web y el funcionamiento de la misma. Al pulsar “Guardar cambios”, se guardará la selección de cookies que has realizado. Si no has seleccionado ninguna opción, pulsar este botón equivaldrá a rechazar todas las cookies. Para más información puedes visitar nuestra Políticas de Cookies. Podrás cambiar en cualquier momento tus preferencias de cookies pinchando en el enlace “Preferencias de cookies” situado en la parte inferior de nuestra web.