Proofpoint lanza AI Security para proteger agentes de IA

Proofpoint, Inc., empresa de ciberseguridad y cumplimiento normativo, ha anunciado Proofpoint AI Security, la solución de seguridad más reciente de la industria que combina detección basada en intenciones, puntos de control multisuperficie y un marco de implementación integral para proteger la manera en que los humanos y los agentes de IA utilizan la IA en toda la empresa. Basándose en el primer Marco de Integridad de Agentes de la industria, que define cómo opera un agente de IA con integridad, Proofpoint introduce un modelo de madurez de cinco fases para la implementación, desde el descubrimiento inicial hasta la aplicación en tiempo de ejecución.

A medida que las organizaciones implementan rápidamente agentes de IA autónomos para navegar por la web, acceder a sistemas internos, enviar correos electrónicos, ejecutar código y orquestar flujos de trabajo, riesgos como la escalada de privilegios agéntica y los ataques de inyección de prompt de cero clics se están convirtiendo en amenazas reales. Una sola solicitud de IA puede desencadenar docenas de acciones autónomas en múltiples sistemas, a menudo a la velocidad de la máquina y sin supervisión humana. Las herramientas de seguridad existentes pueden ver el tráfico y los permisos, pero no evalúan si el comportamiento de la IA se alinea con la intención original del usuario. Una investigación de Acuvity, adquirida recientemente por Proofpoint, indica que un 70% de las organizaciones carece de una gobernanza de IA optimizada, y un 50% prevé pérdidas de datos relacionados con la IA en los próximos 12 meses, lo que subraya la necesidad urgente de asegurar los entornos de IA agéntica.

“La IA está ahora integrada en la forma en que se realiza el trabajo, y la seguridad debe evolucionar con ella”, declara Sumit Dhawan, CEO de Proofpoint“Los humanos y los agentes de IA comparten riesgos similares: ambos pueden ser manipulados y realizar acciones que se desvían del propósito previsto. Sin embargo, la seguridad tradicional nunca se diseñó para validar la intención. Proofpoint se posiciona de manera única como una plataforma de ciberseguridad unificada, construida para proteger a las personas, defender los datos y gobernar los agentes de IA conjuntamente, proporcionando una verificación continua y basada en la intención, que garantiza que el comportamiento se alinea con la política y la intención en el espacio de trabajo agéntico”.

Modelos de detección basados en intención en todas las interacciones de IA

Las herramientas de seguridad tradicionales no tienen visibilidad del contenido semántico de las interacciones de la IA, que es donde a menudo reside el riesgo. Pueden ver el tráfico, las identidades o los permisos, pero no son capaces de determinar si las acciones de una IA son apropiadas en el contexto o si se alinean con la intención del usuario o del agente.

Proofpoint AI Security cierra esta brecha aplicando modelos de detección basados en la intención, evaluando continuamente si el comportamiento de la IA, iniciado por un humano o un agente autónomo, se alinea con la solicitud original, las políticas definidas y el propósito previsto. Al analizar el contexto semántico completo de las interacciones de la IA, la solución señala acciones desalineadas o de alto riesgo en tiempo real, antes de que ocurra el daño, como comunicación no conforme o pérdida de datos.

Protección contra todo el espectro de riesgos de la IA autónoma

Ofrecida a través de una arquitectura unificada para el espacio de trabajo agéntico, Proofpoint AI Security opera en todas las superficies donde se utiliza la IA, que incluyen endpoints, extensiones de navegador y conexiones MCP, brindando a las organizaciones la visibilidad y el control necesarios sobre el uso y los riesgos de la IA. Esto es particularmente crítico en entornos de desarrollo, en los que los asistentes de codificación conectados a agentes, los plugins y las herramientas integradas en MCP están acelerando la adopción y aumentando la necesidad de visibilidad y aplicación de políticas.

A través de estos puntos de control, las organizaciones pueden:

·       Descubrir herramientas de IA autorizadas y no autorizadas, como OpenClaw, Ollama, ChatGPT y servidores MCP utilizados por humanos y agentes.

·       Observar prompts, respuestas y flujos de datos durante el uso de herramientas de IA.

·       Aplicar controles de acceso y barreras de protección en el uso de la IA.

·       Implementar una inspección en tiempo de ejecución y aplicar políticas durante las interacciones de IA en vivo.

Ruta estructurada para implementación con el Marco de Integridad de Agentes y el primer modelo de madurez de IA del mercado

Para proporcionar a las empresas una hoja de ruta estructurada para gobernar la IA de forma segura, Proofpoint presenta también el Marco de Integridad de Agentes, una guía completa que define lo que significa para un agente de IA operar con integridad y proporciona un modelo de madurez de cinco fases para la implementación, desde el descubrimiento inicial hasta la aplicación en tiempo de ejecución.

El marco define la Integridad del Agente como la garantía de que un agente de IA opera dentro de los límites de su propósito previsto, permisos autorizados y comportamiento esperado, en cada interacción, llamada a herramienta y acceso a datos. Delinea cinco pilares: alineación de intenciones, identidad y atribución, consistencia del comportamiento, auditabilidad y transparencia operacional, para ayudar a los clientes a poner en práctica la gobernanza de la IA sin necesidad de reestructurar su arquitectura de seguridad existente.

“De los humanos se espera que operen con integridad al usar sistemas empresariales, y los agentes de IA deben someterse al mismo estándar”, apunta Ryan Kalember, vicepresidente ejecutivo de estrategia de ciberseguridad en Proofpoint“La Integridad del Agente significa asegurar que los agentes de IA actúen dentro de los límites de su propósito previsto, permisos autorizados y comportamiento esperado en cada interacción, llamada a herramienta y acceso a datos. Con Proofpoint AI Security y el Marco de Integridad de Agentes, podemos proporcionar un plan claro para ayudar a las empresas a abordar de forma integral todo el espectro de riesgos que surgen cuando los agentes de IA operan autónomamente en los sistemas empresariales”.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.

TE PUEDE GUSTAR

RECIBE LA NEWSLETTER

*Email: *Nombre apellidos: *Empresa: Cargo: Sector:

 
Please don't insert text in the box below!

ARTÍCULOS MÁS RECIENTES

ESCUCHA NUESTRO PODCAST

SÍGUENOS EN RRSS

MÁS COMENTADOS

Scroll al inicio
Resumen de privacidad

Las cookies y otras tecnologías similares son una parte esencial de cómo funciona nuestra web. El objetivo principal de las cookies es que tu experiencia de navegación sea más cómoda y eficiente y poder mejorar nuestros servicios y la propia web. Aquí podrás obtener toda la información sobre las cookies que utilizamos y podrás activar y/o desactivar las mismas de acuerdo con tus preferencias, salvo aquellas Cookies que son estrictamente necesarias para el funcionamiento de la web de CyberSecurityNews. Ten en cuenta que el bloqueo de algunas cookies puede afectar tu experiencia en la web y el funcionamiento de la misma. Al pulsar “Guardar cambios”, se guardará la selección de cookies que has realizado. Si no has seleccionado ninguna opción, pulsar este botón equivaldrá a rechazar todas las cookies. Para más información puedes visitar nuestra Políticas de Cookies. Podrás cambiar en cualquier momento tus preferencias de cookies pinchando en el enlace “Preferencias de cookies” situado en la parte inferior de nuestra web.