
Presentado por 1Password
Ampliar capacidades de agente a los entornos empresariales está remodelando fundamentalmente el maniquí de amenazas al introducir una nueva clase de actor en los sistemas de identidad. El problema: los agentes de IA están tomando medidas en el interior de sistemas empresariales sensibles, iniciando sesión, obteniendo datos, llamando a herramientas LLM y ejecutando flujos de trabajo, a menudo sin la visibilidad o el control que los sistemas tradicionales de identidad y llegada fueron diseñados para imponer.
Las herramientas de inteligencia químico y los agentes autónomos están proliferando en las empresas más rápido de lo que los equipos de seguridad pueden instrumentarlos o gobernarlos. Al mismo tiempo, la mayoría de los sistemas de identidad todavía asumen usuarios estáticos, cuentas de servicio de larga duración y asignaciones de roles aproximadas. No fueron diseñados para representar autoridad humana delegada, contextos de ejecución de corta duración o agentes que operan en circuitos de valor estrechos.
Como resultado, los líderes de TI deben dar un paso antes y repensar la propia capa de confianza. Este cambio no es teórico. NIST Edificación de confianza cero (SP 800-207) establece explícitamente que “todos los sujetos, incluidas las aplicaciones y las entidades no humanas, se consideran no confiables hasta que estén autenticados y autorizados”.
En un mundo agente, eso significa que los sistemas de IA deben tener identidades propias explícitas y verificables, no ejecutar a través de credenciales heredadas o compartidas.
"Las arquitecturas de IAM empresarial están diseñadas para encargarse que todas las identidades del sistema son humanas, lo que significa que cuentan con un comportamiento consistente, una intención clara y una responsabilidad humana directa para imponer la confianza." dice Nancy Wang, CTO de 1Password y socia de peligro de Felicis. “Los sistemas agentes rompen esas suposiciones. Un agente de IA no es un favorecido que se puede entrenar o revisar periódicamente. Es software que se puede copiar, bifurcar, progresar horizontalmente y dejar funcionando en ciclos de ejecución ajustados en múltiples sistemas. Si continuamos tratando a los agentes como humanos o cuentas de servicio estáticas, perdemos la capacidad de representar claramente para quién actúan, qué autoridad tienen y cuánto tiempo debe durar esa autoridad”.
Cómo los agentes de IA convierten los entornos de exposición en zonas de peligro para la seguridad
Uno de los primeros lugares donde se desmoronan estos supuestos de identidad es el entorno de exposición reciente. El entorno de desarrollador integrado (IDE) ha evolucionado más allá de un simple editor hasta convertirse en un orquestador capaz de descifrar, escribir, ejecutar, averiguar y configurar sistemas. Con un agente de IA en el centro de este proceso, las transiciones rápidas de inyección no son sólo una posibilidad abstracta; se convierten en un peligro concreto.
Adecuado a que los IDE tradicionales no fueron diseñados con agentes de IA como componente central, amplificar capacidades de IA no originales introduce nuevos tipos de riesgos que los modelos de seguridad tradicionales no fueron creados para tener en cuenta.
Por ejemplo, los agentes de IA violan sin darse cuenta los límites de confianza. Un README aparentemente inofensivo podría contener directivas ocultas que engañan a un asistente para que exponga las credenciales durante el descomposición normalizado. El contenido del plan de fuentes no confiables puede alterar el comportamiento de los agentes de modo no deseada, incluso cuando ese contenido no tiene ningún parecido obvio con un mensaje.
Las fuentes de entrada ahora se extienden más allá de los archivos que se ejecutan deliberadamente. Los agentes incorporan la documentación, los archivos de configuración, los nombres de archivos y los metadatos de las herramientas como parte de sus procesos de toma de decisiones, lo que influye en cómo interpretan un plan.
La confianza se erosiona cuando los agentes actúan sin intención ni responsabilidad
Cuando se agregan agentes deterministas y en gran medida autónomos que operan con privilegios elevados, con la capacidad de descifrar, escribir, ejecutar o reconfigurar sistemas, la amenaza crece. Estos agentes no tienen contexto ni capacidad para determinar si una solicitud de autenticación es legítima, quién delegó esa solicitud o los límites que deben establecerse en torno a esa hecho.
"Con los agentes, no se puede encargarse que tienen la capacidad de hacer juicios precisos y ciertamente carecen de un código recatado." dice Wang. "Cada una de sus acciones debe circunscribirse adecuadamente y el llegada a sistemas sensibles y lo que pueden hacer en el interior de ellos debe definirse más claramente. La parte complicada es que continuamente toman medidas, por lo que asimismo necesitan ser limitados continuamente."
Donde el IAM tradicional defecto con los agentes
Los sistemas tradicionales de papeleo de identidades y accesos operan según varios supuestos básicos que la IA agente viola:
Los modelos de privilegios estáticos fallan con los flujos de trabajo de agentes autónomos: La IAM convencional otorga permisos basados en roles que permanecen relativamente estables a lo extenso del tiempo. Pero los agentes ejecutan cadenas de acciones que requieren diferentes niveles de privilegios en diferentes momentos. El privilegio intrascendente ya no puede ser una configuración de configúrelo y olvídese. Ahora debe tener un significación dinámico con cada hecho, con mecanismos de puesta al día y vencimiento automáticos.
La responsabilidad humana se desmorona para los agentes de software: Los sistemas heredados asumen que cada identidad se remonta a una persona específica que puede ser considerada responsable de las acciones tomadas, pero los agentes desdibujan completamente esta fila. Ahora no está claro cuándo actúa un agente ni bajo qué autoridad opera, lo que ya constituye una enorme vulnerabilidad. Pero cuando ese agente se duplica, modifica o se deja funcionando mucho posteriormente de acontecer cumplido su propósito diferente, el peligro se multiplica.
La detección basada en comportamiento defecto con la actividad continua del agente: Mientras que los usuarios humanos siguen patrones reconocibles, como iniciar sesión durante el horario comercial, alcanzar a sistemas familiares y realizar acciones que se alinean con sus funciones laborales, los agentes operan continuamente en múltiples sistemas simultáneamente. Eso no solo multiplica el potencial de daño a un sistema, sino que asimismo hace que los flujos de trabajo legítimos sean marcados como sospechosos por los sistemas tradicionales de detección de anomalías.
Las identidades de los agentes suelen ser invisibles para los sistemas IAM tradicionales: Tradicionalmente, los equipos de TI pueden configurar y ejecutar más o menos identidades que operan en el interior de su entorno. Pero los agentes pueden crear nuevas identidades dinámicamente, ejecutar a través de cuentas de servicios existentes o servirse las credenciales de modo que las hagan invisibles para las herramientas IAM convencionales.
"Es todo el contexto, la intención detrás de un agente, y los sistemas IAM tradicionales no tienen ninguna capacidad para ejecutar eso." dice Wang. "Esta convergencia de diferentes sistemas hace que el desafío sea más amplio que la mera identidad, y requiere contexto y observabilidad para comprender no sólo quién actuó, sino asimismo por qué y cómo."
Repensar la casa de seguridad para sistemas agentes
Proteger la IA agente requiere repensar la casa de seguridad empresarial desde cero. Son necesarios varios cambios secreto:
La identidad como plano de control de los agentes de IA: En oficio de tratar la identidad como un componente de seguridad entre muchos, las organizaciones deben reconocerla como el plano de control fundamental para los agentes de IA. Los principales proveedores de seguridad ya están avanzando en esta dirección, y la identidad se está integrando en cada alternativa y pila de seguridad.
El llegada consciente del contexto como requisito para la IA agente: Las políticas deben volverse mucho más granulares y específicas, definiendo no sólo a qué puede alcanzar un agente, sino bajo qué condiciones. Esto significa considerar quién invocó al agente, en qué dispositivo se está ejecutando, qué restricciones de tiempo se aplican y qué acciones específicas se permiten en el interior de cada sistema.
Manejo de credenciales de conocimiento cero para agentes autónomos: Un enfoque prometedor es ayudar las credenciales completamente fuera de la presencia de los agentes. Utilizando técnicas como el autocompletado agente, las credenciales se pueden inyectar en los flujos de autenticación sin que los agentes las vean en texto plano, de forma similar a cómo funcionan los administradores de contraseñas para los humanos, pero extendido a los agentes de software.
Requisitos de auditabilidad para agentes de IA: Los registros de auditoría tradicionales que rastrean las llamadas API y los eventos de autenticación son insuficientes. La auditabilidad del agente requiere capturar quién es el agente, bajo qué autoridad opera, qué significación de autoridad se le otorgó y la sujeción completa de acciones tomadas para ganar un flujo de trabajo. Esto refleja el registro de actividad detallado utilizado para los empleados humanos, pero debe adaptarse a entidades de software que ejecutan cientos de acciones por minuto.
Hacer cumplir los límites de confianza entre humanos, agentes y sistemas: Las organizaciones necesitan límites claros y aplicables que definan lo que un agente puede hacer cuando lo invoca una persona específica en un dispositivo en particular. Esto requiere separar la intención de la ejecución: comprender lo que un favorecido quiere que logre un agente de lo que el agente positivamente hace.
El futuro de la seguridad empresarial en un mundo agente
A medida que la IA agente se integra en los flujos de trabajo empresariales cotidianos, el desafío de seguridad no es si las organizaciones adoptarán agentes; se prostitución de si los sistemas que gobiernan el llegada pueden cambiar para ayudar el ritmo.
Es poco probable que el retiro de la IA en el perímetro crezca, pero siquiera lo hará la ampliación de los modelos de identidad heredados. Lo que se requiere es un cambio en torno a sistemas de identidad que puedan dar cuenta del contexto, la delegación y la responsabilidad en tiempo verdadero, tanto entre humanos, máquinas y agentes de IA.
“La función escalonada para los agentes en producción no provendrá nada más de modelos más inteligentes”, afirma Wang. “Provendrá de una autoridad predecible y de límites de confianza aplicables. Las empresas necesitan sistemas de identidad que puedan representar claramente para quién actúa un agente, qué se le permite hacer y cuándo expira esa autoridad. Sin eso, la autonomía se convierte en un peligro no tramitado. Con ello, los agentes se vuelven gobernables”.
Los artículos patrocinados son contenido producido por una empresa que paga por la publicación o tiene una relación comercial con VentureBeat, y siempre están claramente marcados. Para más información, póngase en contacto ventas@venturebeat.com.




