
El mercado de la IA empresarial sufre actualmente una enorme resaca. Durante los últimos dos primaveras, los tomadores de decisiones se han pasado inundados con demostraciones de agentes autónomos que reservan vuelos, escriben códigos y analizan datos. Sin incautación, la existencia sobre el dominio es totalmente diferente. Si acertadamente la experimentación está en su punto más suspensión, el despliegue de agentes autónomos y confiables en la producción sigue siendo un desafío.
Un estudio fresco realizado por el Esquema NANDA del MIT destacó una estadística aleccionadora: aproximadamente el 95% de los proyectos de IA no logran gestar valía final. Chocan contra las paredes cuando se trasladan del entorno acotado al mundo auténtico, y a menudo se rompen bajo el peso de casos extremos, alucinaciones o fallas de integración.
Según Antonio Gulli, ingeniero senior de Google y director de la oficina de ingeniería de la CTO, la industria sufre un malentendido fundamental sobre qué son verdaderamente los agentes. Los hemos tratado como cajas mágicas en zona de sistemas de software complejos. "La ingeniería de IA, especialmente con modelos y agentes grandes, en existencia no es diferente de cualquier forma de ingeniería, como software o ingeniería civil." Dijo Gulli en una entrevista monopolio con VentureBeat. "Para construir poco duradero, no se puede simplemente perseguir el postrero maniquí o entorno."
Gulli sostiene que la opción al "valle de desilusión" No es un maniquí más inteligente, sino una mejor construcción. Su volumen fresco, "Patrones de diseño agentes," proporciona estándares arquitectónicos rigurosos y repetibles que convierten "cacharro" agentes en herramientas empresariales confiables. El volumen rinde homenaje al llamativo. "Patrones de diseño" (uno de mis libros favoritos sobre ingeniería de software), que puso orden en la programación orientada a objetos en la término de 1990.
Gulli presenta 21 patrones fundamentales que sirven como cojín para sistemas agentes confiables. Se proxenetismo de estructuras de ingeniería prácticas que dictan cómo piensa, recuerda y actúa un agente. "Por supuesto, es importante contar con lo postrero en tecnología, pero es necesario dar un paso detrás y reflexionar sobre los principios fundamentales que impulsan los sistemas de IA." Dijo Guli. "Estos patrones son la cojín de ingeniería que mejoramiento la calidad de la opción."
El kit de supervivencia empresarial
Para los líderes empresariales que buscan estabilizar su pila de IA, Gulli identifica cinco "fruta madura" patrones que ofrecen el maduro impacto inmediato: consejo, enrutamiento, comunicación, barandillas y memoria. El cambio más crítico en el diseño de agentes es el paso de la simple "estímulo-respuesta" bots a sistemas capaces de Advertencia. Un LLM tipificado intenta contestar una consulta de inmediato, lo que a menudo conduce a alucinaciones. Un agente juicioso, sin incautación, imita el razonamiento humano al crear un plan, ejecutarlo y luego murmurar su propio resultado antiguamente de presentárselo al adjudicatario. Este circuito de feedback interna suele ser la diferencia entre una respuesta incorrecta y una correcta.
Una vez que un agente puede pensar, debe ser competente. Aquí es donde Enrutamiento se vuelve esencial para el control de costos. En zona de cursar cada consulta a un enorme y costoso "maniquí de dios," una capa de enrutamiento analiza la complejidad de la solicitud. Las tareas simples se dirigen a modelos más rápidos y baratos, mientras que el razonamiento enrevesado se reserva para los pesos pesados. Esta construcción permite a las empresas medrar sin aumentar sus presupuestos de inferencia. “Un maniquí puede ejecutar como un enrutador para otros modelos, o incluso el mismo maniquí con diferentes indicaciones y funciones del sistema”, dijo Gulli.
Conectar a estos agentes con el mundo extranjero requiere Comunicación dando a los modelos comunicación a herramientas como búsqueda, consultas y ejecución de código. En el pasado, conectar un LLM a una cojín de datos significaba escribir código personalizado y frágil. Gulli señala el mejora del Protocolo de contexto maniquí (MCP) como un momento crucial. MCP actúa como un puerto USB para IA, proporcionando una forma estandarizada para que los agentes se conecten a fuentes de datos y herramientas. Esta estandarización se extiende a "Agente a agente" (A2A), lo que permite a los agentes especializados colaborar en tareas complejas sin una sobrecarga de integración personalizada.
Sin incautación, incluso un agente inteligente y competente es inútil si no puede retener información. Memoria Los patrones resuelven el "pez de colores" problema, donde los agentes olvidan instrucciones durante largas conversaciones. Al organizar cómo un agente almacena y recupera interacciones y experiencias pasadas, los desarrolladores pueden crear asistentes persistentes y conscientes del contexto. “La forma en que se crea la memoria es fundamental para la calidad de los agentes”, dijo Gulli.
Finalmente, ausencia de esto importa si el agente es un pasivo. Barandillas Proporcionar las restricciones necesarias para respaldar que un agente opere interiormente de los límites de seguridad y cumplimiento. Esto va más allá de un simple mensaje del sistema que le pide al maniquí que "se amable"; Implica controles arquitectónicos y políticas de escalamiento que evitan la fuga de datos o acciones no autorizadas. Gulli enfatiza que concretar estos "duro" los límites son "extremadamente importante" Por seguridad, respaldar que un agente que intenta ser útil no exponga accidentalmente datos privados ni ejecute comandos irreversibles fuera de su zona de influencia competente.
Reparando confiabilidad con seguridad transaccional
Para muchos CIO, la fluctuación a la hora de desplegar agentes se debe al miedo. Un agente autónomo que puede repasar correos electrónicos o modificar archivos plantea un aventura importante si se descarrila. Gulli aborda esto tomando prestado un concepto de la encargo de bases de datos: seguridad transaccional. "Si un agente realiza una acto, debemos implementar puntos de control y reversiones, tal como lo hacemos para la seguridad transaccional en las bases de datos." Dijo Guli.
En este maniquí, las acciones de un agente son provisionales hasta que sean validadas. Si el sistema detecta una anomalía o un error, puede "revertir" a un estado seguro precursor, deshaciendo las acciones del agente. Esta red de seguridad permite a las empresas creer en agentes con comunicación de escritura a los sistemas, sabiendo que hay un tallo para deshacer. Probar estos sistemas además requiere un nuevo enfoque. Las pruebas unitarias tradicionales verifican si una función devuelve el valía correcto, pero un agente puede conmover a la respuesta correcta a través de un proceso peligroso y defectuoso. Gulli aboga por evaluar Trayectorias de agentesmétricas que evalúan cómo se comportan los agentes a lo amplio del tiempo.
“(Las trayectorias de los agentes) implica analizar toda la secuencia de decisiones y herramientas utilizadas para conmover a una conclusión, asegurando que todo el proceso sea sólido, no sólo la respuesta final”, dijo.
Esto suele encontrarse aumentado por la Crítica patrón, donde un agente independiente y especializado tiene la tarea de resolver el desempeño del agente principal. Esta comprobación mutua es fundamental para preparar la propagación de errores, esencialmente creando un sistema automatizado de revisión por pares para las decisiones de IA.
Preparado para el futuro: de la ingeniería rápida a la ingeniería de contexto
De cara al año 2026, es probable que la era del maniquí único de propósito caudillo esté llegando a su fin. Gulli predice un cambio cerca de un panorama dominado por flotas de agentes especializados. "Creo firmemente que veremos una especialización de agentes," dijo. "El maniquí seguirá siendo el cerebro… pero los agentes se convertirán en verdaderos sistemas multiagente con tareas especializadas (agentes centrados en la recuperación, vivientes de imágenes, creación de vídeos) comunicándose entre sí."
En este futuro, la principal sagacidad de los desarrolladores no será convencer a un maniquí para que trabaje con una redacción inteligente y una ingeniería rápida. En zona de ello, tendrán que centrarse en la ingeniería contextual, la disciplina que se centra en diseñar el flujo de información, diligenciar el estado y curar el contexto en el que se basamento el maniquí. "ve."
Es un paso del patraña lingüístico a la ingeniería de sistemas. Al adoptar estos patrones y centrarse en el "plomería" de la IA en zona de solo los modelos, las empresas finalmente pueden cerrar la brecha entre las exageraciones y los resultados finales. "No deberíamos utilizar la IA sólo por el acertadamente de la IA," Advierte Gulli. "Debemos comenzar con una definición clara del problema empresarial y cómo utilizar mejor la tecnología para resolverlo."






