
A medida que las organizaciones corren para desbloquear el potencial de productividad de los modelos de idiomas grandes (LLM) y la IA de agente, muchas igualmente están despertando a un problema de seguridad casero: ¿qué sucede cuando nuevas herramientas poderosas tienen demasiada permiso, muy pocas salvaguardas y llegada de gran ámbito a datos confidenciales?
Desde la redacción del código hasta la automatización del servicio al cliente y la sintetización de las ideas comerciales, los LLM y los agentes autónomos de IA están redefiniendo cómo se realiza el trabajo. Pero las mismas capacidades que hacen que estas herramientas sean indispensables, la capacidad de ingerir, analizar y producir contenido similar a los humanos, puede ser retrocediendo rápidamente si no se rige con precisión.
Cuando un sistema de IA está conectado a datos empresariales, API y aplicaciones sin controles adecuados, el peligro de fugas accidentales, acciones deshonestas o skyrockets malos de uso malvado. Es tentador encargarse que habilitar estas nuevas capacidades de IA requerirá el desaliño de los principios de seguridad existentes.
En sinceridad, lo contrario es cierto: la obra de confianza cero “probada y verdadera” que ha cedido forma a la ciberseguridad resistente en los últimos primaveras ahora se necesita más que nunca para reforzar LLM, agentes de IA, flujos de trabajo de IA y los datos confidenciales con los que interactúan. Solo con el enfoque de autorización y aplicación basado en la identidad de Zero Trust, se puede reforzar interacciones complejas de IA.
El peligro de IA: el mismo problema, aumento de la complejidad, estacas más altas
Las LLM se destacan en un rápido volúmenes de datos. Pero cada interacción entre un favorecido y un agente de IA, un agente y un maniquí, o un maniquí y un La pulvínulo de datos crea un nuevo peligro potencial. Considere a un empleado que usa un LLM para resumir los contratos confidenciales. Sin controles robustos, esos resúmenes o los contratos detrás de ellos podrían quedarse expuestos.
O imagine que un agente autónomo otorgó permisos para acelerar las tareas. Si no se rige por los controles de llegada estrictos en tiempo vivo, ese mismo agente podría extraer inadvertidamente más datos de los previstos, o ser explotado por un atacante para exfiltrar la información confidencial. En sinopsis, los LLM no cambian el desafío de seguridad fundamental. Simplemente multiplican las vías y la escalera de exposición.
Este objeto de multiplicación es particularmente preocupante porque los sistemas de IA funcionan a velocidad y escalera de la máquina. Un solo llegada no administrado que podría exponer un puñado de registros en los sistemas tradicionales podría, cuando un agente de IA explotado, resultar en la exposición de miles o incluso millones de puntos de datos confidenciales en segundos.
Encima, los agentes de IA son capaces de encadenar acciones juntas, tachar a API o orquestar flujos de trabajo en múltiples sistemas, actividades que difuminan los perímetros de seguridad tradicionales y complican la tarea de monitoreo y contención.
En este entorno, las organizaciones ya no pueden echarse en brazos en las defensas estáticas. En cambio, la seguridad debe ser dinámica y basada en la identidad de cada favorecido, agente, LLM y medios digitales para habilitar el llegada adaptativo, contextual y último de privilegio a cada paso.
La carestia amplificada de cero confianza en un mundo de IA
Zero Trust se pedestal en una idea simple pero poderosa: nunca confíe, siempre verifique. Cada favorecido, dispositivo, aplicación o agente de IA debe demostrar continuamente quiénes son y qué se les permite hacer, cada vez que intentan una batalla.
Este maniquí se asigna lógicamente a los entornos de IA modernos. En extensión de solo tratar de filtrar las indicaciones, o recuperar datos, o futuro, filtrado que se puede producirse por detención utilizando indicaciones inteligentes, cero confianza hace cumplir la seguridad más profundamente en la pila.
Registra qué agentes y modelos pueden conseguir a qué datos, bajo qué condiciones y por cuánto tiempo. Piense en ello como poner la identidad y el contexto en el centro de cada interacción, ya sea un humano que solicite datos o un proceso de IA que funcione de forma autónoma en segundo plano.
Un ejemplo en el que pensar son los ataques de inyección rápidos, donde las entradas maliciosas engañan a un LLM para que revelen datos confidenciales o realicen tareas no autorizadas. Incluso los sistemas de filtrado más avanzados han demostrado ser vulnerables a estas técnicas de jailbreak.
Pero con cero confianza, el daño de dicho ataque se evita porque el proceso de IA en sí mismo carece de privilegios permanentes. El sistema verifica las solicitudes de llegada realizadas por los componentes de IA independientemente de cualquier dependencia de la interpretación o filtrado inmediato, lo que hace increíble que un mensaje comprometido se convierta en una exposición de datos.
Cómo aplicar Zero Trust a los flujos de trabajo LLM
Afirmar LLM y la IA generativa no significa reinventar la rueda. Significa expandir los principios de fideicomiso cero comprobados a los nuevos casos de uso:
– AGENTES ATIGOS AL ATIVOS A LAS IDENTIDADES VERIFICADAS: Trate los procesos de IA como usuarios humanos. Cada agente o maniquí necesita su propia identidad, roles y derechos.
-Use controles de contexto de cereal fino: Limite el llegada de un agente de IA en función de factores en tiempo vivo como el tiempo, el dispositivo o la sensibilidad de los datos solicitados.
– Hacer cumplir los controles a nivel de protocolo: No confíe nada más en el filtrado de nivel rápido, de salida o de recuperación. Aplique cero confianza más profundo, en el sistema y las capas de red, para circunvalar el llegada no competente, sin importar cuán sofisticado sea el aviso.
– Perdurar cero confianza a lo dilatado de las cadenas de interacciones de IA: Incluso para cadenas complejas de interacciones, como un favorecido que usa un agente que utiliza un agente que utiliza un LLM para conseguir a una pulvínulo de datos, la identidad y los derechos deben trazarse y aplicarse a lo dilatado de cada paso de la secuencia de interacción.
– Monitorear y auditar continuamente: Mantenga la visibilidad de cada batalla que tome un agente o maniquí. Los registros a prueba de manipulaciones y la disco de sesión inteligente aseguran el cumplimiento y la responsabilidad.
Para aplicar cero confianza a la IA, las organizaciones necesitarán adecuadamente Soluciones de mandato de identidad para modelos y agentes de IA, al igual que hoy para los empleados. Esto sustentará el uso de IAM (mandato de identidad y llegada) con activos de IA y medios digitales para la aplicación de políticas consistente.
Al aplicar Zero Trust a sus sistemas de IA, una ordenamiento puede producirse de esperar que los proyectos de IA no filtren datos o se vuelvan deshonestos a entender que no pueden. Esta aval es más que una delantera técnica, es un habilitador de negocios. Las organizaciones que pueden implementar con confianza la IA mientras salvaguardan sus datos innovarán más rápido, atraerán a más clientes y mantendrán el cumplimiento regulatorio en un entorno en el que las leyes en torno al uso de la IA están evolucionando rápidamente.
Los reguladores de todo el mundo señalan que la gobernanza de la IA requerirá salvaguardas demostrables contra el mal uso, y cero confianza proporciona el camino más claro cerca de el cumplimiento sin sofocar la innovación. AI promete ganancias transformadoras, pero solo para aquellos que pueden aprovecharlo de guisa segura. Zero Trust es el maniquí de seguridad probado que garantiza que los beneficios de la IA se puedan obtener sin rasgar la puerta a riesgos inaceptables.
Enumeramos el mejor software antivirus: clasificaciones y reseñas de expertos.
Este artículo fue producido como parte del canal de Insights Expert de TechRadarpro, donde presentamos las mejores y más brillantes mentes de la industria de la tecnología en la contemporaneidad. Las opiniones expresadas aquí son las del autor y no son necesariamente las de TechRadarpro o Future PLC. Si está interesado en contribuir, obtenga más información aquí: https://www.techradar.com/news/submit-your-story-to-techradar-pro






