
- Casi la centro de los equipos de TI no saben completamente a qué están accediendo a sus agentes de IA a diario
- Las empresas aman a los agentes de IA, pero igualmente temen lo que están haciendo a puerta cerrada de puertas digitales
- Las herramientas de IA ahora necesitan gobernanza, senderos de auditoría y controlar al igual que los empleados humanos
A pesar del creciente entusiasmo por la IA agente en todas las empresas, una nueva investigación sugiere que la rápida expansión de estas herramientas está superando los esfuerzos para asegurarlas.
Una indagación de Sailpoint de 353 profesionales de TI con responsabilidades de seguridad empresarial ha revelado una compleja combinación de optimismo y ansiedad sobre los agentes de IA.
La indagación informa que el 98% de las organizaciones tienen la intención de ampliar su uso de agentes de IA en el próximo año.
Los agentes de IA la apadrinamiento superan la preparación de la seguridad
Los agentes de IA se están integrando en operaciones que manejan datos empresariales confidenciales, desde registros y finanzas de clientes hasta documentos legales y transacciones de la dependencia de suministro, sin secuestro, el 96% de los encuestados dijo que consideran que estos mismos agentes son una creciente amenaza de seguridad.
Un problema central es la visibilidad: solo el 54% de los profesionales afirman tener plena conciencia de los datos que pueden consentir a sus agentes, lo que deja a casi la centro de los entornos empresariales en la oscuridad sobre cómo los agentes de IA interactúan con información crítica.
Al agravar el problema, el 92% de los encuestados acordó que los agentes de IA que rigen es crucial para la seguridad, pero solo el 44% tiene una política actual.
Encima, ocho de cada diez compañías dicen que sus agentes de IA han tomado medidas a las que no estaban destinados, esto incluye consentir a sistemas no autorizados (39%), compartir datos inapropiados (33%) y descargar contenido confidencial (32%).
Aún más preocupante, el 23% de los encuestados admitieron que sus agentes de IA han sido engañados para revelar credenciales de llegada, una potencial mina de oro para los actores maliciosos.
Una idea importante es que el 72% cree que los agentes de IA presentan mayores riesgos que las identidades tradicionales de la máquina.
Parte de la razón es que los agentes de IA a menudo requieren múltiples identidades para funcionar de guisa efectivo, especialmente cuando se integran con herramientas o sistemas de IA de stop rendimiento utilizados para el incremento y la escritura.
Los llamados a un cambio a un maniquí de identidad primero son más fuertes, pero Sailpoint y otros argumentan que las organizaciones necesitan tratar a agentes de IA como usuarios humanos, completos con controles de llegada, mecanismos de responsabilidad y senderos de auditoría completas.
Los agentes de IA son una añadido relativamente nueva al espacio de negocios, y las organizaciones tardarán tiempo en integrarlas completamente en sus operaciones.
“Muchas organizaciones todavía son tempranas en este alucinación, y las crecientes preocupaciones en torno al control de datos resaltan la requisito de estrategias de seguridad de identidad más fuertes y más integrales”, concluyó Sailpoint.