La autonomía de los agentes sin barreras de seguridad es una pesadilla para SRE

La autonomía de los agentes sin barreras de seguridad es una pesadilla para SRE

João Freitas es director militar y vicepresidente de ingeniería de IA y automatización en Servicio de buscapersonas

A medida que el uso de la IA continúa evolucionando en las grandes organizaciones, los líderes buscan cada vez más el próximo crecimiento que genere un anciano retorno de la inversión. La última ola de esta tendencia presente es la apadrinamiento de agentes de IA. Sin bloqueo, como ocurre con cualquier tecnología nueva, las organizaciones deben comprobar de adoptar agentes de IA de una forma responsable que les permita entregar tanto la velocidad como la seguridad.

Más de la medio de las organizaciones ya han implementado agentes de IA hasta cierto punto, y más esperan hacer lo mismo en los próximos dos primaveras. Pero muchos de los primeros en adoptarlo ahora están reevaluando su enfoque. Cuatro de cada 10 líderes tecnológicos lamentan no favor establecido una pulvínulo de gobernanza más sólida desde el principio, lo que sugiere que adoptaron la IA rápidamente, pero con beneficio para mejorar las políticas, reglas y mejores prácticas diseñadas para avalar el crecimiento y uso responsable, ético y constitucional de la IA.

A medida que se acelera la apadrinamiento de la IA, las organizaciones deben encontrar el nivelación adecuado entre su peligro de exposición y la implementación de medidas de seguridad para avalar que el uso de la IA sea seguro.

¿Dónde crean riesgos potenciales los agentes de IA?

Hay tres áreas principales a considerar para una apadrinamiento más segura de la IA.

La primera es la IA en la sombra, cuando los empleados utilizan herramientas de IA no autorizadas sin permiso deliberadamente, eludiendo las herramientas y procesos aprobados. La TI debería crear los procesos necesarios para la experimentación y la innovación para introducir formas más eficientes de trabajar con la IA. Si correctamente la IA en la sombra ha existido desde que existen las propias herramientas de IA, la autonomía de los agentes de IA facilita que las herramientas no autorizadas operen fuera del ámbito de TI, lo que puede introducir nuevos riesgos de seguridad.

En segundo motivo, las organizaciones deben cerrar las brechas en la propiedad y la responsabilidad de la IA para prepararse para incidentes o procesos que salgan mal. La fuerza de los agentes de IA reside en su autonomía. Sin bloqueo, si los agentes actúan de forma inesperada, los equipos deben poder determinar quién es responsable de chocar cualquier problema.

El tercer peligro surge cuando no se pueden explicar las acciones que han tomado los agentes de IA. Los agentes de IA están orientados a objetivos, pero puede no estar claro cómo logran sus objetivos. Los agentes de IA deben tener una dialéctica explicable subyacente a sus acciones para que los ingenieros puedan rastrear y, si es necesario, revertir acciones que puedan causar problemas con los sistemas existentes.

Si correctamente nadie de estos riesgos debería retrasar la apadrinamiento, ayudarán a las organizaciones a avalar mejor su seguridad.

Las tres pautas para la apadrinamiento responsable de agentes de IA

Una vez que las organizaciones hayan identificado los riesgos que pueden desarrollar los agentes de IA, deben implementar pautas y medidas de seguridad para avalar un uso seguro. Siguiendo estos tres pasos, las organizaciones pueden minimizar estos riesgos.

1: Hacer que la supervisión humana sea la opción predeterminada

La agencia de IA continúa evolucionando a un ritmo rápido. Sin bloqueo, todavía necesitamos supervisión humana cuando a los agentes de IA se les da la capacidad de efectuar, tomar decisiones y perseguir un objetivo que pueda afectar a los sistemas secreto. Un humano debe estar informado de forma predeterminada, especialmente para casos de uso y sistemas críticos para el negocio. Los equipos que utilizan IA deben comprender las acciones que puede tomar y dónde pueden carecer intervenir. Comience de forma conservadora y, con el tiempo, aumente el nivel de agencia otorgado a los agentes de IA.

En conjunto, los equipos de operaciones, ingenieros y profesionales de seguridad deben comprender el papel que desempeñan en la supervisión de los flujos de trabajo de los agentes de IA. A cada agente se le debe asignar un propietario humano específico para una supervisión y responsabilidad claramente definidas. Las organizaciones incluso deben permitir que cualquier humano señale o anule el comportamiento de un agente de IA cuando una batalla tiene un resultado película.

Al considerar las tareas para los agentes de IA, las organizaciones deben comprender que, si correctamente la automatización tradicional es buena para manejar procesos repetitivos basados ​​en reglas con entradas de datos estructurados, los agentes de IA pueden manejar tareas mucho más complejas y adaptarse a nueva información de una forma más autónoma. Esto los convierte en una decisión atractiva para todo tipo de tareas. Pero a medida que se implementan los agentes de IA, las organizaciones deben controlar qué acciones pueden tomar los agentes, particularmente en las primeras etapas de un plan. Por lo tanto, los equipos que trabajan con agentes de IA deben contar con rutas de aprobación para acciones de suspensión impacto para avalar que el efecto del agente no se extienda más allá de los casos de uso esperados, minimizando el peligro para el sistema en militar.

2: Hornear con seguridad

La preámbulo de nuevas herramientas no debería exponer un sistema a nuevos riesgos de seguridad.

Las organizaciones deben considerar plataformas agentes que cumplan con altos estándares de seguridad y estén validadas por certificaciones de nivel empresarial como SOC2, FedRAMP o equivalentes. Por otra parte, no se debe permitir que los agentes de IA tengan rienda suelta en los sistemas de una ordenamiento. Como imperceptible, los permisos y el efecto de seguridad de un agente de IA deben estar alineados con el efecto del propietario, y cualquier aparejo agregada al agente no debe permitir permisos ampliados. Lindar el golpe de los agentes de IA a un sistema en función de su función incluso garantizará que la implementación se realice sin problemas. Nutrir registros completos de cada batalla realizada por un agente de IA incluso puede ayudar a los ingenieros a comprender qué sucedió en caso de un incidente y rastrear el problema.

3: Hacer que los resultados sean explicables

El uso de la IA en una ordenamiento nunca debe ser una caja negra. Se debe ilustrar el razonamiento detrás de cualquier batalla para que cualquier ingeniero que intente aceptar a ella pueda comprender el contexto que utilizó el agente para la toma de decisiones y aceptar a los rastros que llevaron a esas acciones.

ILas entradas y horizontes de cada batalla deben registrarse y ser accesibles. Esto ayudará a las organizaciones a establecer una visión militar firme de la dialéctica subyacente a las acciones de un agente de IA, proporcionando un valencia significativo en caso de que poco salga mal.

La seguridad subraya el éxito de los agentes de IA

Los agentes de IA ofrecen una gran oportunidad para que las organizaciones aceleren y mejoren sus procesos existentes. Sin bloqueo, si no priorizan la seguridad y una gobernanza sólida, podrían exponerse a nuevos riesgos.

A medida que los agentes de IA se vuelven más comunes, las organizaciones deben comprobar de contar con sistemas para calcular su desempeño y la capacidad de tomar medidas cuando crean problemas.

Lea más de nuestro escritores invitados. ¡O considere expedir una publicación propia! Vea nuestro pautas aquí.

Related Posts

TechCrunch Mobility: la táctica R2 de Rivian

Bienvenido de nuevo a TechCrunch Mobility, su centro para todo lo relacionado con el “futuro del transporte”. Para tomar esto en su bandeja de entrada, regístrese aquí de forma gratuita:…

La incómoda verdad sobre los vehículos híbridos

Esto es El paso a espaldasun boletín semanal que analiza una historia esencial del mundo de la tecnología. Para obtener más información sobre la lucha de los vehículos eléctricos, siga…

You Missed

TechCrunch Mobility: la táctica R2 de Rivian

TechCrunch Mobility: la táctica R2 de Rivian

¿Efectivamente funcionaron las reformas de Leonel Fernández para combatir la corrupción en República Dominicana?

¿Efectivamente funcionaron las reformas de Leonel Fernández para combatir la corrupción en República Dominicana?

La incómoda verdad sobre los vehículos híbridos

La incómoda verdad sobre los vehículos híbridos

EFF, Ubuntu y otras distribuciones discuten cómo reponer a las leyes de comprobación de vida

EFF, Ubuntu y otras distribuciones discuten cómo reponer a las leyes de comprobación de vida

donde la belleza mueve la patrimonio y las mujeres encuentran apoyo

donde la belleza mueve la patrimonio y las mujeres encuentran apoyo

Voy a salir a romper hoy en presencia de Israel

Voy a salir a romper hoy en presencia de Israel