
João Freitas es director militar y vicepresidente de ingeniería de IA y automatización en Servicio de buscapersonas
A medida que el uso de la IA continúa evolucionando en las grandes organizaciones, los líderes buscan cada vez más el próximo mejora que genere un veterano retorno de la inversión. La última ola de esta tendencia flagrante es la prohijamiento de agentes de IA. Sin incautación, como ocurre con cualquier tecnología nueva, las organizaciones deben cerciorarse de adoptar agentes de IA de una modo responsable que les permita solucionar tanto la velocidad como la seguridad.
Más de la parte de las organizaciones ya han implementado agentes de IA hasta cierto punto, y más esperan hacer lo mismo en los próximos dos primaveras. Pero muchos de los primeros en adoptarlo ahora están reevaluando su enfoque. Cuatro de cada 10 líderes tecnológicos lamentan no sobrevenir establecido una almohadilla de gobernanza más sólida desde el principio, lo que sugiere que adoptaron la IA rápidamente, pero con beneficio para mejorar las políticas, reglas y mejores prácticas diseñadas para respaldar el mejora y uso responsable, ético y procesal de la IA.
A medida que se acelera la prohijamiento de la IA, las organizaciones deben encontrar el firmeza adecuado entre su aventura de exposición y la implementación de medidas de seguridad para respaldar que el uso de la IA sea seguro.
¿Dónde crean riesgos potenciales los agentes de IA?
Hay tres áreas principales a considerar para una prohijamiento más segura de la IA.
La primera es la IA en la sombra, cuando los empleados utilizan herramientas de IA no autorizadas sin permiso a propósito, eludiendo las herramientas y procesos aprobados. La TI debería crear los procesos necesarios para la experimentación y la innovación para introducir formas más eficientes de trabajar con la IA. Si admisiblemente la IA en la sombra ha existido desde que existen las propias herramientas de IA, la autonomía de los agentes de IA facilita que las herramientas no autorizadas operen fuera del ámbito de TI, lo que puede introducir nuevos riesgos de seguridad.
En segundo circunstancia, las organizaciones deben cerrar las brechas en la propiedad y la responsabilidad de la IA para prepararse para incidentes o procesos que salgan mal. La fuerza de los agentes de IA reside en su autonomía. Sin incautación, si los agentes actúan de modo inesperada, los equipos deben poder determinar quién es responsable de atracar cualquier problema.
El tercer aventura surge cuando no se pueden explicar las acciones que han tomado los agentes de IA. Los agentes de IA están orientados a objetivos, pero puede no estar claro cómo logran sus objetivos. Los agentes de IA deben tener una método explicable subyacente a sus acciones para que los ingenieros puedan rastrear y, si es necesario, revertir acciones que puedan causar problemas con los sistemas existentes.
Si admisiblemente nadie de estos riesgos debería retrasar la prohijamiento, ayudarán a las organizaciones a respaldar mejor su seguridad.
Las tres pautas para la prohijamiento responsable de agentes de IA
Una vez que las organizaciones hayan identificado los riesgos que pueden sugerir los agentes de IA, deben implementar pautas y medidas de seguridad para respaldar un uso seguro. Siguiendo estos tres pasos, las organizaciones pueden minimizar estos riesgos.
1: Hacer que la supervisión humana sea la opción predeterminada
La agencia de IA continúa evolucionando a un ritmo rápido. Sin incautación, todavía necesitamos supervisión humana cuando a los agentes de IA se les da la capacidad de representar, tomar decisiones y perseguir un objetivo que pueda afectar a los sistemas secreto. Un humano debe estar informado de forma predeterminada, especialmente para casos de uso y sistemas críticos para el negocio. Los equipos que utilizan IA deben comprender las acciones que puede tomar y dónde pueden carecer intervenir. Comience de modo conservadora y, con el tiempo, aumente el nivel de agencia otorgado a los agentes de IA.
En conjunto, los equipos de operaciones, ingenieros y profesionales de seguridad deben comprender el papel que desempeñan en la supervisión de los flujos de trabajo de los agentes de IA. A cada agente se le debe asignar un propietario humano específico para una supervisión y responsabilidad claramente definidas. Las organizaciones todavía deben permitir que cualquier humano señale o anule el comportamiento de un agente de IA cuando una energía tiene un resultado gafe.
Al considerar las tareas para los agentes de IA, las organizaciones deben comprender que, si admisiblemente la automatización tradicional es buena para manejar procesos repetitivos basados en reglas con entradas de datos estructurados, los agentes de IA pueden manejar tareas mucho más complejas y adaptarse a nueva información de una modo más autónoma. Esto los convierte en una posibilidad atractiva para todo tipo de tareas. Pero a medida que se implementan los agentes de IA, las organizaciones deben controlar qué acciones pueden tomar los agentes, particularmente en las primeras etapas de un tesina. Por lo tanto, los equipos que trabajan con agentes de IA deben contar con rutas de aprobación para acciones de detención impacto para respaldar que el radio del agente no se extienda más allá de los casos de uso esperados, minimizando el aventura para el sistema en militar.
2: Hornear con seguridad
La preámbulo de nuevas herramientas no debería exponer un sistema a nuevos riesgos de seguridad.
Las organizaciones deben considerar plataformas agentes que cumplan con altos estándares de seguridad y estén validadas por certificaciones de nivel empresarial como SOC2, FedRAMP o equivalentes. Adicionalmente, no se debe permitir que los agentes de IA tengan rienda suelta en los sistemas de una estructura. Como pequeño, los permisos y el radio de seguridad de un agente de IA deben estar alineados con el radio del propietario, y cualquier aparejo agregada al agente no debe permitir permisos ampliados. Jalonar el camino de los agentes de IA a un sistema en función de su función todavía garantizará que la implementación se realice sin problemas. Sustentar registros completos de cada energía realizada por un agente de IA todavía puede ayudar a los ingenieros a comprender qué sucedió en caso de un incidente y rastrear el problema.
3: Hacer que los resultados sean explicables
El uso de la IA en una estructura nunca debe ser una caja negra. Se debe ilustrar el razonamiento detrás de cualquier energía para que cualquier ingeniero que intente consentir a ella pueda comprender el contexto que utilizó el agente para la toma de decisiones y consentir a los rastros que llevaron a esas acciones.
ILas entradas y horizontes de cada energía deben registrarse y ser accesibles. Esto ayudará a las organizaciones a establecer una visión militar firme de la método subyacente a las acciones de un agente de IA, proporcionando un valencia significativo en caso de que poco salga mal.
La seguridad subraya el éxito de los agentes de IA
Los agentes de IA ofrecen una gran oportunidad para que las organizaciones aceleren y mejoren sus procesos existentes. Sin incautación, si no priorizan la seguridad y una gobernanza sólida, podrían exponerse a nuevos riesgos.
A medida que los agentes de IA se vuelven más comunes, las organizaciones deben cerciorarse de contar con sistemas para determinar su desempeño y la capacidad de tomar medidas cuando crean problemas.
Lea más de nuestro escritores invitados. ¡O considere cursar una publicación propia! Vea nuestro pautas aquí.





