
Las empresas han trabajado durante décadas para desarrollar su obra de ciberseguridad y defenderse contra las filtraciones de datos. La creciente admisión de GenAI ha desafiado los esfuerzos de ciberseguridad en los últimos dos abriles, pero el aumento de la agencia
La IA ha introducido un obstáculo aún anciano. A medida que los agentes de IA adquieren la capacidad de descubrir herramientas de forma autónoma, colaborar con otros agentes y tomar decisiones a la velocidad de la máquina, las organizaciones se enfrentan a una nueva amenaza: las filtraciones de agentes.
Vicepresidente de soluciones empresariales de IA en AnswerRocket.
Con protocolos como el Model Context Protocol (MCP) de Anthropic, El panorama de la seguridad está evolucionando rápidamente con el protocolo de agente a agente (A2A) de Google y el protocolo de comunicación de agentes (ACP) de IBM, que permite a los agentes de IA comunicarse directamente.
Estos agentes autónomos operan a velocidades que van mucho más allá de las capacidades de monitoreo humano y, a menudo, tienen comunicación a sistemas sensibles.
Hemos superado los dilemas básicos de seguridad de la IA (por ejemplo, ¿estos modelos entrenarán a mi competidor utilizando mis datos?).
En caudillo, las organizaciones ahora confían en que la implementación de modelos grandes en el interior de entornos de abundancia privados seguros ofrece protecciones similares a las bases de datos en la abundancia convencionales con una gobernanza adecuada.
Hoy hay una nueva preocupación. En la era de la IA multiagente, los modelos llaman a otros modelos, creando todo tipo de nuevas superficies de ataque. Dar a los modelos más autonomía para conquistar asimismo significa darles más claves para el reino de los datos.
Las vulnerabilidades de MCP, A2A y ACP
Las violaciones de datos tradicionales se referían al comunicación no facultado a la información. Las infracciones de agentes se deben a un comportamiento de agentes no facultado o no intencionado.
Eso significa que los agentes acceden a datos incorrectos, malinterpretan información crítica o crean cadenas de comunicación vulnerables entre sistemas.
En su anciano parte, los modelos no son capaces de obtener datos por sí solos. Así que los agentes necesitan programas y personas para poner las cosas en marcha, para poner en marcha datos para trabajar.
Protocolos como MCP permiten a los agentes encontrar y utilizar otros agentes avíos para realizar el seguimiento, pero ¿son seguras esas interconexiones y cuáles son las nuevas partes de la superficie de ataque?
MCP, A2A y ACP tienen sus propias preocupaciones únicas.
Comencemos con MCP. MCP permite a los agentes descubrir herramientas de forma dinámica, yendo mucho más allá de los puntos finales estáticos de las API tradicionales. Si acertadamente esto permite flexibilidad, asimismo puede significar que los agentes interactúen con herramientas desconocidas o no verificadas, lo que aumenta el aventura de ataques de suplantación de identidad.
Sin mecanismos de comprobación integrados, MCP requiere capas de seguridad externas para que sea viable en entornos empresariales. Debe adicionar sus propias capas de protección para cerciorarse de que esté sagaz para la empresa.
El posterior es A2A. A2A plantea cuestiones de responsabilidad y control cuando los agentes interactúan con los de otros proveedores. ¿Quién es responsable de las decisiones tomadas en conjunto? ¿Son seguras las comunicaciones?
¿Qué modelos están involucrados y son susceptibles a la deriva? Es posible que el monitoreo tradicional no detecte datos patentados integrados en los resúmenes de IA, lo que dificulta respaldar la gobernanza.
Los ataques agentes de IA son rápidos y devastadores
La IA funciona mucho más rápido que los humanos. Eso significa que cuando las cosas van mal con los agentes, suceden a la velocidad de la máquina. Los ataques agentes de IA van más allá de simples inyecciones rápidas. Generalmente, los atacantes intentan hacer al menos una de tres cosas:
1) extraer la obra de un agente para mapear toda la obra de IA de una estructura, 2) robar instrucciones de agentes y esquemas de herramientas para descubrir método de negocios y metodologías patentadas, y 3) explotar configuraciones erróneas de herramientas para obtener comunicación a una red corporativa.
Esto puede ocurrir de varias maneras en el mundo verdadero. Considere el posterior proscenio: una empresa de servicios financieros implementa un agente de inteligencia industrial para ayudar con los pagos a los proveedores.
Un atacante descubre que puede pedirle al agente que “verifique los detalles de suscripción” de un proveedor falsificado y luego lo convence para que inicie una “transacción de prueba” de 1 dólar. Una vez que tienen éxito, aumentan a montos mayores al presentar las solicitudes como “aprobaciones ejecutivas urgentes”.
He aquí otro ejemplo que podría ocurrir en prácticamente cualquier sector. En un sistema de múltiples agentes donde un agente de disección de datos proporciona información a un agente de organización, los atacantes envenenan los resultados del agente de disección con interpretaciones sutilmente sesgadas.
Con el paso de las semanas, esto lleva al agente de organización a aconsejar opciones cada vez más deficientes. decisiones empresariales, todo ello mientras parece funcionar con normalidad.
El control es secreto para adoptar de forma segura la IA agente
¿Cómo pueden las empresas utilizar la IA agente de forma segura? Se tráfico de tomar y ayudar el control. Comience con estos cinco pasos: Centralice el comunicación a los modelos de IA: otorgue a todos derechos sobre los modelos, pero a través de una puerta de enlace monitoreada y medida que usted controle.
Aproveche las herramientas del hiperescalador: aplique las herramientas disponibles en su hiperescalador, sabiendo que no es la única empresa con estos problemas. Pero tenga cuidado al darles control total para nominar las instancias reales del maniquí de IA por usted, sin su opinión.
Verifique el cumplimiento de los proveedores: asegúrese de que sus proveedores cumplan con su organización, utilizando su comunicación a la puerta de enlace para la método de IA incorporada. Estandarice, estandarice, estandarice: estandarice los grandes bloques, como los informes de costos de IA, las evaluaciones y la deriva del maniquí de prueba.
Cree un repositorio: cree un repositorio para indicaciones, herramientas y vectores de incorporación que sea sencillo de mandar y claro de conectar, como lo son sus fuentes de datos para herramientas de concepción de informes y exportaciones.
La IA agente ofrece un valencia transformador, aumentando significativamente el retorno de la inversión de la GenAI “tradicional”. Las empresas no deberían tener miedo ni ser lentas en adoptar agentes. Sólo necesitan ser reflexivos.
Incorpore la seguridad a la cojín de los entornos multiagente. Centralice el control sin crear cuellos de botella. Monitoriza todo sin detener cero.
El paso de precaver las filtraciones de datos a precaver las filtraciones de agentes requiere nuevas ideas y nuevos modelos de gobernanza.
Pero los fundamentos siguen siendo: memorizar qué está sucediendo en sus sistemas, controlar quién tiene comunicación y construir la seguridad como cojín en puesto de agregarla posteriormente.
Hemos presentado la mejor VPN empresarial.
Este artículo se produjo como parte del canal Expert Insights de TechRadarPro, donde presentamos las mejores y más brillantes mentes de la industria tecnológica flagrante. Las opiniones expresadas aquí son las del autor y no son necesariamente las de TechRadarPro o Future plc. Si estás interesado en contribuir, descubre más aquí: https://www.techradar.com/news/submit-your-story-to-techradar-pro




