Las empresas están implementando agentes de IA más rápido de lo que los protocolos de seguridad pueden seguir, dice Deloitte

borroso moviéndose rápido

nikada/e+/getty imágenes

Siga ZDNET: Agréganos como fuente preferida en Google.


Conclusiones secreto de ZDNET

  • La prohijamiento de agentes de IA entre las empresas está creciendo rápidamente.
  • Mientras tanto, el exposición de protocolos de seguridad va retrasado.
  • Deloitte recomienda implementar procedimientos de supervisión.

Las empresas están aumentando el uso de agentes de IA más rápidamente de lo que construyen barreras de seguridad adecuadas, según el postrer crónica State of AI in the Enterprise de Deloitte.

Publicado el miércoles y basado en una sondeo de más de 3.200 líderes empresariales en 24 países, el estudio encontró que el 23% de las empresas utilizan actualmente agentes de IA “al menos moderadamente”, pero se prevé que esta número aumente al 74% en los próximos dos primaveras. Por el contrario, se paciencia que la proporción de empresas que informan que no los utilizan en rotundo, actualmente el 25%, se reduzca a sólo el 5%.

Encima: el 43% de los trabajadores dice activo compartido información confidencial con IA, incluidos datos financieros y de clientes.

Sin bloqueo, el aumento de agentes (herramientas de inteligencia sintético entrenadas para realizar tareas de varios pasos con poca supervisión humana) en el zona de trabajo no se está complementando con barreras de seguridad adecuadas. Sólo cerca de del 21% de los encuestados dijeron a Deloitte que su empresa cuenta actualmente con sólidos mecanismos de seguridad y supervisión para evitar posibles daños causados ​​por los agentes.

“Dada la rápida trayectoria de prohijamiento de la tecnología, esto podría ser una valla significativa”, escribió Deloitte en su crónica. “A medida que la IA agente escalera desde pilotos hasta implementaciones de producción, establecer una gobernanza sólida debería ser esencial para capturar valía y al mismo tiempo encargar el peligro”.

¿Qué podría salir mal?

Empresas como OpenAI, Microsoft, Google, Amazon y Salesforce han comercializado agentes como herramientas que aumentan la productividad, con la idea central de que las empresas pueden descargarles operaciones laborales repetitivas y de bajo peligro mientras los empleados humanos se concentran en tareas más importantes.

Todavía: Malas vibraciones: cómo un agente de IA codificó su camino alrededor de el desastre

Sin bloqueo, una veterano autonomía conlleva mayores riesgos. A diferencia de los chatbots más limitados, que requieren indicaciones cuidadosas y constantes, los agentes pueden interactuar con varias herramientas digitales para, por ejemplo, firmar documentos o realizar compras en nombre de organizaciones. Esto deja más beneficio de error, ya que los agentes pueden comportarse de maneras inesperadas (a veces con consecuencias desastrosas) y ser vulnerables a ataques de inyección rápidos.

alejar

El nuevo crónica de Deloitte no es el primero en señalar que la prohijamiento de la IA está eclipsando la seguridad.

Un estudio publicado en mayo encontró que la gran mayoría (84%) de los profesionales de TI encuestados dijeron que sus empleadores ya estaban usando agentes de IA, mientras que solo el 44% dijo que tenían políticas implementadas para regular la actividad de esos sistemas.

Encima: Cómo OpenAI defiende ahora ChatGPT Atlas de los ataques y por qué la seguridad no está garantizada

Otro estudio publicado en septiembre por la Alianza Doméstico de Ciberseguridad, una ordenamiento sin fines de beneficio, reveló que si admisiblemente un número creciente de personas utilizan herramientas de inteligencia sintético como ChatGPT a diario, incluso en el trabajo, la mayoría de ellas lo hacen sin activo recibido ningún tipo de capacitación en seguridad por parte de sus empleadores (enseñándoles, por ejemplo, sobre los riesgos de privacidad que conlleva el uso de chatbots).

Y en diciembre, Gallup publicó los resultados de una sondeo que mostraba que, si admisiblemente el uso de herramientas de inteligencia sintético entre trabajadores individuales había aumentado desde el año antedicho, casi una cuarta parte (23%) de los encuestados dijeron que no sabían si sus empleadores estaban usando la tecnología a nivel organizacional.

El resultado

Por supuesto, sería injusto para los líderes empresariales exigir que tengan barreras absolutamente a prueba de balas cerca de de los agentes de IA en esta etapa tan temprana. La tecnología siempre evoluciona más rápido que nuestra comprensión de cómo puede salir mal y, como resultado, las políticas en todos los niveles tienden a ir a la trasera de su implementación.

Encima: Cómo estas leyes estatales de seguridad de la IA cambian la regulación en los EE. UU.

Esto ha sido especialmente cierto con la IA, ya que la cantidad de exageración cultural y presión económica que ha estado impulsando a los desarrolladores de tecnología a propalar nuevos modelos y a los líderes organizacionales a comenzar a usarlos no tiene precedentes.

Pero los primeros estudios, como el nuevo crónica sobre el estado de la IA generativa en la empresa de Deloitte, señalan lo que admisiblemente podría convertirse en una división peligrosa entre el despliegue y la seguridad a medida que las industrias aumentan el uso de agentes y otras potentes herramientas de IA.

Encima: el 96% de los profesionales de TI dicen que los agentes de IA son un peligro para la seguridad, pero los están implementando de todos modos

Por ahora, la supervisión debería ser la consigna: las empresas deben ser conscientes de los riesgos asociados con el uso interno de agentes y contar con políticas y procedimientos para avalar que no se descarrilen y, si lo hacen, que el daño resultante pueda gestionarse.

“Las organizaciones necesitan establecer límites claros para la autonomía de los agentes, definiendo qué decisiones pueden tomar los agentes de forma independiente y cuáles requieren aprobación humana”, recomienda Deloitte en su nuevo crónica. “Los sistemas de monitoreo en tiempo actual que rastrean el comportamiento de los agentes y señalan anomalías son esenciales, al igual que los registros de auditoría que capturan la cautiverio completa de acciones de los agentes para ayudar a avalar la responsabilidad y permitir la mejoría continua”.


Related Posts

El diseño del iPhone Fold se filtra en supuestos archivos de renderizado CAD 3D

Se aplazamiento que Apple anuncie un iPhone completamente nuevo con pantalla plegable a finales de este año. Antiguamente de la presentación, Sonny Dickson compartió lo que parecen ser archivos de…

El enorme centro de datos Stargate de OpenAI cancelado porque la empresa no puede demorar a un acuerdo con Oracle y el cirujano lucha con problemas de confiabilidad: Meta dijo que está interesada en arrebatar el exceso de capacidad

Oracle y OpenAI cancelaron planes para expandir su campus insignia de centro de datos de IA en Abilene, Texas, posteriormente de que fracasaran largas negociaciones sobre acuerdos de financiamiento y…

You Missed

Luis Severino domina con cinco ponches frente a Países Bajos en el Clásico Mundial de Béisbol 2026

Luis Severino domina con cinco ponches frente a Países Bajos en el Clásico Mundial de Béisbol 2026

Caminero “La Máxima” se adueña del Clásico Mundial

Caminero “La Máxima” se adueña del Clásico Mundial

El diseño del iPhone Fold se filtra en supuestos archivos de renderizado CAD 3D

El diseño del iPhone Fold se filtra en supuestos archivos de renderizado CAD 3D

familiares exigen ecuanimidad a 11 meses

familiares exigen ecuanimidad a 11 meses

Cuatro muertos en incidente de tránsito en la autopista Duarte | AlMomento.net

Cuatro muertos en incidente de tránsito en la autopista Duarte | AlMomento.net

Adolescente en motocicleta eléctrica atropella y mata a mujer de 70 abriles en San Luis

Adolescente en motocicleta eléctrica atropella y mata a mujer de 70 abriles en San Luis