
Siga ZDNET: Agréganos como fuente preferida en Google.
Conclusiones esencia de ZDNET
- La tecnología de IA agente se caracteriza por una errata de divulgación de los riesgos.
- Algunos sistemas son peores que otros.
- Los desarrolladores de IA deben dar un paso al frente y hacerse cargo responsabilidades.
La tecnología agente se está incorporando de realizado a la corriente principal de la inteligencia químico con el anuncio esta semana de que OpenAI ha contratado a Peter Steinberg, el creador del entorno de software de código despejado OpenClaw.
El software OpenClaw atrajo mucha atención el mes pasado no sólo por permitir capacidades salvajes (agentes que pueden, por ejemplo, destinar y admitir correo electrónico en su nombre) sino asimismo por sus dramáticas fallas de seguridad, incluida la capacidad de secuestrar completamente su computadora personal.
Todavía: De Clawdbot a OpenClaw: este agente virulento de IA está evolucionando rápidamente y es un combustible de pesadilla para los profesionales de la seguridad
Dada la fascinación por los agentes y lo poco que todavía se sabe acerca de sus ventajas y desventajas, es importante que los investigadores del MIT y las instituciones colaboradoras acaben de difundir una indagación masiva de 30 de los sistemas de IA agentes más comunes.
Los resultados dejan claro que la IA agente es una especie de pesadilla de seguridad en este momento, una disciplina marcada por la errata de divulgación, la errata de transparencia y una sorprendente errata de protocolos básicos sobre cómo deben intervenir los agentes.
Todavía: OpenClaw es una pesadilla de seguridad: 5 señales de alerta que no debes ignorar (antaño de que sea demasiado tarde)
Una errata de transparencia
La anciano revelación del documentación es lo difícil que es identificar todas las cosas que podrían salir mal con la IA agente. Esto se debe principalmente a la errata de divulgación por parte de los desarrolladores.
“Identificamos limitaciones persistentes en los informes sobre las características ecosistémicas y relacionadas con la seguridad de los sistemas agentes”, escribieron el autor principal Leon Staufer de la Universidad de Cambridge y colaboradores del MIT, la Universidad de Washington, la Universidad de Harvard, la Universidad de Stanford, la Universidad de Pensilvania y la Universidad Hebrea de Jerusalén.
A través de ocho categorías diferentes de divulgación, los autores señalaron que la mayoría de los sistemas de agentes no ofrecen información alguna para la mayoría de las categorías. Las omisiones van desde la errata de divulgación sobre riesgos potenciales hasta la errata de divulgación sobre pruebas de terceros, si las hubiera.
Una tabla que presenta en rojo todas las omisiones de divulgación de los sistemas de agentes.
Universidad de Cambridge et al.
El documentación de 39 páginas, “El índice de IA 2025: documentación de las características sociotécnicas de los sistemas de IA agentes implementados”, que se puede descargar aquíestá realizado de joyas sobre lo poco que se puede rastrear, rastrear, monitorear y controlar en la tecnología de inteligencia químico flagrante.
Por ejemplo, “para muchos agentes empresariales, a partir de la información adecuado públicamente no queda claro si existe un seguimiento de los seguimientos de ejecución individuales”, lo que significa que no existe una capacidad clara para rastrear exactamente lo que está haciendo un software de IA agente.
Todavía: Los agentes de IA ya están provocando desastres y esta amenaza oculta podría descarrilar su implementación segura
“Doce de treinta agentes no proporcionan ningún seguimiento del uso o sólo notifican una vez que los usuarios alcanzan el término de velocidad”, señalaron los autores. Eso significa que ni siquiera se puede realizar un seguimiento de la cantidad de IA agente que consume de un memorial informático determinado, una preocupación esencia para las empresas que tienen que presupuestar estas cosas.
La mayoría de estos agentes siquiera indican al mundo efectivo que son IA, por lo que no hay forma de asimilar si se alcahuetería de un humano o un androide.
“La mayoría de los agentes no revelan su naturaleza de IA a los usuarios finales o a terceros de forma predeterminada”, señalaron. La divulgación, en este caso, incluiría cosas como poner una marca de agua en un archivo de imagen generado para que quede claro cuándo se creó una imagen a través de IA, o reponer al archivo “robots dot txt” de un sitio web para identificar al agente del sitio como una automatización en puesto de un visitante humano.
Algunas de estas herramientas de software no ofrecen ninguna forma de detener la ejecución de un agente determinado.
MobileAgent de Alibaba, Breeze de HubSpot, watsonx de IBM y las automatizaciones creadas por el fabricante de software n8n con sede en Berlín, Alemania, “carecen de opciones de parada documentadas a pesar de la ejecución autónoma”, dijeron Staufer y su equipo.
“Para las plataformas empresariales, a veces sólo existe la opción de detener todos los agentes o retirar la implementación”.
Descubrir que no se puede detener poco que está haciendo poco incorrecto tiene que ser uno de los peores escenarios posibles para una estructura extenso donde los resultados dañinos superan los beneficios de la automatización.
Los autores esperan que estas cuestiones, las cuestiones de transparencia y control, persistan entre los agentes e incluso se vuelvan más prominentes. “Los desafíos de gobernanza documentados aquí (fragmentación del ecosistema, tensiones de conducta en la red, partida de evaluaciones específicas de los agentes) ganarán importancia a medida que aumenten las capacidades de los agentes”, escribieron.
Staufer y su equipo asimismo dijeron que intentaron obtener comentarios de las empresas cuyo software se cubrió durante cuatro semanas. Aproximadamente una cuarta parte de los contactados respondió, “pero sólo 3/30 con comentarios sustanciales”. Esos comentarios se incorporaron al documentación, escribieron los autores. Todavía cuentan con un formulario proporcionado a las empresas para las correcciones en curso.
Un panorama en expansión de IA agente
La inteligencia químico agente es una rama del educación espontáneo que ha surgido en los últimos tres primaveras para mejorar las capacidades de los grandes modelos de jerga y los chatbots.
En puesto de simplemente asignarles una única tarea dictada por un mensaje de texto, los agentes son programas de inteligencia químico que se han conectado a bienes externos, como bases de datos, y a los que se les ha otorgado una medida de “autonomía” para perseguir objetivos más allá del magnitud de un diálogo basado en texto.
Todavía: Faltan primaveras para la verdadera IA agente: he aquí por qué y cómo llegamos allí
Esa autonomía puede incluir la realización de varios pasos en un flujo de trabajo corporativo, como admitir una orden de operación por correo electrónico, ingresarla en una cojín de datos y consultar un sistema de inventario para confirmar su disponibilidad. Los agentes asimismo se han utilizado para automatizar varios turnos de una interacción de servicio al cliente con el fin de reemplazar algunas de las consultas básicas por teléfono, correo electrónico o mensajes de texto que tradicionalmente habría manejado un representante de atención al cliente humano.
Los autores seleccionaron la IA agente en tres categorías: chatbots que tienen capacidades adicionales, como la útil Claude Code de Anthropic; extensiones de navegador web o navegadores de IA dedicados, como el navegador Atlas de OpenAI; y ofertas de software empresarial como Office 365 Copilot de Microsoft. Esto es sólo una muestra: otros estudios, señalaron, han cubierto cientos de ofertas de tecnología agente.
(Divulgación: Ziff Davis, la empresa matriz de ZDNET, presentó una demanda en abril de 2025 contra OpenAI, alegando que infringió los derechos de autor de Ziff Davis al entrenar y intervenir sus sistemas de IA).
Sin requisa, la mayoría de los agentes “se basan en un pequeño conjunto de modelos de frontera de código cerrado”, dijeron Staufer y su equipo. GPT de OpenAI, Claude de Anthropic y Gemini de Google son sobre los que se basan la mayoría de estos agentes.
Lo bueno y lo malo de los agentes
El estudio no se fundamento en probar las herramientas agentes directamente; se fundamento en “anotar” la documentación proporcionada por los desarrolladores y proveedores. Eso incluye “sólo información pública procedente de documentación, sitios web, demostraciones, artículos publicados y documentos de gobernanza”, dijeron. Sin requisa, establecieron cuentas de favorecido con algunos de los sistemas agentes para confirmar el funcionamiento efectivo del software.
Los autores ofrecieron tres ejemplos anecdóticos que profundizan más. Un ejemplo positivo, escribieron, es el agente ChatGPT de OpenAI, que puede interactuar con sitios web cuando un favorecido solicita en el mensaje que realice una tarea basada en la web. El agente se distingue positivamente como el único de los sistemas de agente que examinaron que proporciona un medio para rastrear el comportamiento “firmando criptográficamente” las solicitudes del navegador que realiza.
Por el contrario, el navegador web Comet de Perplexity parece un desastre de seguridad. Staufer y su equipo descubrieron que el software no tiene “evaluaciones de seguridad de agentes específicos, pruebas de terceros ni divulgaciones de desempeño de narración” y “Perplexity (…) no ha documentado la metodología de evaluación de seguridad ni los resultados para Comet”, y agregó: “No se documentaron enfoques de aislamiento o contención más allá de las mitigaciones de inyección rápida”.
Por otra parte: Gartner insta a las empresas a “rodear todos los navegadores con IA”: ¿qué hay detrás de esta terrible advertencia?
Los autores señalaron que Amazon ha demandado a Perplexity, diciendo que el navegador Comet presenta erróneamente sus acciones a un servidor como si fuera un humano en puesto de un bot, un ejemplo de la errata de identificación que discuten.
El tercer ejemplo es el conjunto de agentes Breeze del proveedor de software empresarial HubSpot. Se alcahuetería de automatizaciones que pueden interactuar con sistemas de registro, como la “trámite de relaciones con el cliente”. Descubrieron que las herramientas Breeze son una mezcla de cosas buenas y malas. Por un costado, están certificados para muchas medidas de cumplimiento corporativo, como el cumplimiento de SOC2, GDPR e HIPAA.
Por otro costado, HubSpot no ofrece cero en cuanto a pruebas de seguridad se refiere. Afirma que los agentes de Breeze fueron evaluados por la firma de seguridad externa PacketLabs, “pero no proporciona metodología, resultados ni detalles de la entidad de prueba”.
La habilidad de demostrar la aprobación del cumplimiento pero no revelar evaluaciones de seguridad reales es “típica de las plataformas empresariales”, señalaron Staufer y su equipo.
Es hora de que los desarrolladores asuman la responsabilidad
Lo que el documentación no examina son incidentes en la naturaleza, casos en los que la tecnología agente en existencia produjo comportamientos inesperados o no deseados que resultaron en resultados indeseables. Eso significa que aún no conocemos el impacto total de las deficiencias que identificaron los autores.
Una cosa está absolutamente clara: la IA agente es producto de equipos de expansión que toman decisiones específicas. Estos agentes son herramientas creadas y distribuidas por humanos.
Como tal, la responsabilidad de documentar el software, auditar los programas por cuestiones de seguridad y proporcionar medidas de control recae directamente en OpenAI, Anthropic, Google, Perplexity y otras organizaciones. Depende de ellos tomar medidas para remediar las graves lagunas identificadas o, de lo contrario, enfrentarse a una regulación en el futuro.






