Tres de cada cuatro proyectos de IA agéntica suponen un riesgo grave de seguridad

Un nuevo análisis de Palo Alto Networks, compañía de ciberseguridad, revela que el 75% de los proyectos de IA agéntica que se está desarrollando actualmente en Europa representan un riesgo grave de seguridad para las organizaciones. El problema no reside en la tecnología en sí, sino en la ausencia de gobernanza, control y supervisión adecuados.

Está conclusión, basada en más de 3.000 conversaciones con directivos de primer nivel (C-suite) de empresas de todo el continente, muestra que muchas iniciativas de IA se están impulsando sin definir objetivos claros, sin criterios de seguridad y sin una dirección estratégica desde los consejos de administración. Según la compañía, sin una acción urgente a nivel de liderazgo, la innovación de hoy podría convertirse en la ciber-crisis del mañana.

Para garantizar que la innovación en los agentes de IA aporte un valor real y sostenible, sin comprometer la seguridad ni la confianza, Palo Alto Networks ha identificado tres pilares esenciales que deben guiar su adopción.

Pilar 1: Definir y limitar los resultados

El análisis identifica como principal causa de fracaso el fenómeno del “desvío de resultados”, es decir, proyectos de IA lanzados sin objetivos empresariales medibles ni enfoque de riesgo. Según Gartner, el 40% de todos los proyectos serán cancelados antes de 2027, mientras que el MIT estima que el 95% de los programas de IA generativa empresariales ya están fracasando. La situación es aún más preocupante desde el punto de vista de la ciberseguridad, ya que solo el 6% de las organizaciones aplican un marco de seguridad avanzado para la IA (Stanford).

“La gran diferencia ahora es que la IA agentiva no se limita a ofrecer respuestas, sino que ejecuta acciones orientadas a resultados concretos”, explica Haider Pasha, CISO de EMEA en Palo Alto Networks. “Las organizaciones que sepan identificar los casos de uso adecuados y alinearlos con objetivos de negocio serán las que realmente logren extraer valor de esta tecnología”.

La compañía recomienda diseñar los proyectos de agentes de IA a partir de objetivos definidos y aprobados por el consejo, alineados con estándares de seguridad e identidad corporativa.

Pilar 2: Guardarraíles de seguridad desde el diseño

El análisis subraya que la confianza en la IA debe equilibrarse con el control, aplicando principios de Zero Trust y un enfoque de seguridad centrado en la identidad. Los fallos más comunes provienen de agentes con privilegios excesivos, controles de identidad débiles o sin límites de acceso definidos.

Palo Alto Networks destaca que la autonomía de los agentes debe ganarse, no concederse desde el primer día. Los sistemas deben tratarse como empleados digitales, sujetos a niveles de confianza progresivos y con auditoría constante. Por ello, la compañía recomienda:

  • Aplicar el modelo Zero Trust en toda la arquitectura.
  • Separar privilegios y controlar los subagentes.
  • Registrar todas las acciones y mantener siempre un humano en el circuito.
  • Adoptar un AI Security Framework integral, evitando soluciones aisladas.

Actualmente, la relación entre agentes y humanos se sitúa ya en torno a 80 a 1, una proporción que se incrementará rápidamente en los próximos años, obligando a las organizaciones a establecer marcos de control robustos y escalables.

Pilar 3: Gobernanza transversal y responsabilidad compartida

Como último punto, Palo Alto Networks destaca que los agentes de IA deben abordarse como una iniciativa empresarial transversal, no como un proyecto aislado del área de TI. Para garantizar su éxito, la compañía propone crear un “Consejo de Gobernanza de Agentes”, con representación de las áreas de seguridad, riesgo, legal, operaciones y negocio, y revisiones periódicas a nivel de consejo de administración. Asimismo, insta a los consejos a:

  • Supervisar de forma más estricta la integración y los resultados de los proyectos.
  • Formarse activamente en las implicaciones de la IA.
  • Establecer alianzas con socios tecnológicos de confianza a largo plazo.
  • Empoderar a los responsables para adoptar la IA de forma controlada y segura.

Este modelo de responsabilidad compartida refuerza la resiliencia, garantiza el cumplimiento normativo y asegura que los proyectos de estén alineados con los objetivos estratégicos.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.

TE PUEDE GUSTAR

RECIBE LA NEWSLETTER

*Email: *Nombre apellidos: *Empresa: Cargo: Sector:

 
Please don't insert text in the box below!

ARTÍCULOS MÁS RECIENTES

ESCUCHA NUESTRO PODCAST

SÍGUENOS EN RRSS

MÁS COMENTADOS

Scroll al inicio
Resumen de privacidad

Las cookies y otras tecnologías similares son una parte esencial de cómo funciona nuestra web. El objetivo principal de las cookies es que tu experiencia de navegación sea más cómoda y eficiente y poder mejorar nuestros servicios y la propia web. Aquí podrás obtener toda la información sobre las cookies que utilizamos y podrás activar y/o desactivar las mismas de acuerdo con tus preferencias, salvo aquellas Cookies que son estrictamente necesarias para el funcionamiento de la web de CyberSecurityNews. Ten en cuenta que el bloqueo de algunas cookies puede afectar tu experiencia en la web y el funcionamiento de la misma. Al pulsar “Guardar cambios”, se guardará la selección de cookies que has realizado. Si no has seleccionado ninguna opción, pulsar este botón equivaldrá a rechazar todas las cookies. Para más información puedes visitar nuestra Políticas de Cookies. Podrás cambiar en cualquier momento tus preferencias de cookies pinchando en el enlace “Preferencias de cookies” situado en la parte inferior de nuestra web.