El director ejecutante de LangChain sostiene que mejores modelos por sí solos no harán que su agente de inteligencia sintético entre en producción

El director ejecutante de LangChain sostiene que mejores modelos por sí solos no harán que su agente de inteligencia sintético entre en producción

A medida que los modelos se vuelven más inteligentes y más capaces, el "arreos" a su en torno a igualmente debe ponerse al día. Este "ingeniería de arreos" es una extensión de la ingeniería de contexto, dice LangChain cofundador y director ejecutante Harrison Chase en un nuevo podcast VentureBeat Más allá del piloto episodio. Mientras que los arreos de IA tradicionales han tendido a impedir que los modelos se ejecuten en bucles y llamen a herramientas, los arreos creados específicamente para agentes de IA les permiten interactuar de modo más independiente y realizar tareas de larga duración de modo efectiva.

Chase igualmente intervino en la adquisición de OpenClaw por parte de OpenAI, argumentando que su éxito vírico se redujo a la voluntad de "deja que se rompa" de una modo que ningún laboratorio importante lo haría, y cuestionando si la adquisición en realidad acerca a OpenAI a una traducción empresarial segura del producto. “La tendencia en los arreos es darle al maniquí de verbo extenso (LLM) más control sobre la ingeniería de contexto, permitiéndole arriesgarse qué ve y qué no ve”, dice Chase. “Ahora, esta idea de un asistente más autónomo y de larga duración es viable”.

Seguimiento del progreso y mantenimiento de la coherencia

Si adecuadamente el concepto de permitir que los LLM se ejecuten en un onda y llamen a herramientas parece relativamente simple, es difícil lograrlo de modo confiable, señaló Chase. Durante un tiempo, los modelos estaban “por debajo del puertas de utilidad” y simplemente no podían ejecutarse en onda, por lo que los desarrolladores utilizaron gráficos y escribieron cadenas para solucionar ese problema. Chase señaló AutoGPT, que alguna vez fue el tesina GitHub de más rápido crecimiento en la historia, como ejemplo de advertencia: la misma edificación que los principales agentes actuales, pero los modelos aún no eran lo suficientemente buenos para ejecutarse de modo confiable en un onda, por lo que se desvaneció rápidamente. Pero a medida que los LLM siguen mejorando, los equipos pueden construir entornos donde los modelos puedan ejecutarse en bucles y planificar horizontes más largos, y pueden mejorar continuamente estos arreos. Anteriormente, “en realidad no se podían realizar mejoras en el arnés porque en efectividad no se podía ejecutar el maniquí con un arnés”, dijo Chase. La respuesta de LangChain a esto es Deep Agents, un personalizable arnés de uso normal. Construido sobre LangChain y LangGraph, tiene capacidades de planificación, un sistema de archivos imaginario, dirección de contexto y tokens, ejecución de código y funciones de habilidades y memoria. Encima, puede delegar tareas a subagentes; estos están especializados con diferentes herramientas y configuraciones y pueden funcionar en paralelo. El contexto igualmente está eventual, lo que significa que el trabajo del subagente no satura el contexto del agente principal y el contexto de las subtareas grandes se comprime en un único resultado para conseguir la eficiencia del token. Todos estos agentes tienen golpe a sistemas de archivos, explicó Chase, y esencialmente pueden crear listas de tareas pendientes que pueden ejecutar y realizar un seguimiento a lo grande del tiempo. “Cuando pasa al sucesivo paso, y pasa al paso dos, tres o cuatro de un proceso de 200 pasos, tiene una modo de seguir su progreso y persistir esa coherencia”, dijo Chase. “Básicamente, todo se reduce a dejar que el LLM escriba sus pensamientos a medida que avanza”. Hizo hincapié en que los arreos deben diseñarse de modo que los modelos puedan persistir la coherencia durante tareas más largas y ser “dóciles” para que los modelos decidan cuándo compactar el contexto en los puntos que determinen que son “ventajosos”. Encima, ofrecer a los agentes golpe a intérpretes de códigos y herramientas BASH aumenta la flexibilidad. Y proporcionar a los agentes habilidades en oficio de solo herramientas cargadas desde el principio les permite cargar información cuando la necesitan. “Entonces, en oficio de codificar todo en un gran mensaje del sistema," Chase explicó, "podría tener un mensaje de sistema más pequeño, “Esta es la colchoneta central, pero si necesito hacer X, déjame interpretar la astucia para X. Si necesito hacer Y, déjame interpretar la astucia para Y”."

Básicamente, la ingeniería de contexto es una forma “en realidad elegante” de opinar: ¿Qué está viendo el LLM? Porque eso es diferente de lo que ven los desarrolladores, señaló. Cuando los desarrolladores humanos pueden analizar los rastros de los agentes, pueden ponerse en la “mentalidad” de la IA y contestar preguntas como: ¿Cuál es el mensaje del sistema? ¿Cómo se crea? ¿Es asombrado o está poblado? ¿Qué herramientas tiene el agente? Cuando realiza una convocatoria a una aparejo y obtiene una respuesta, ¿cómo se presenta? “Cuando los agentes se equivocan, lo hacen porque no tienen el contexto adecuado; cuando tienen éxito, lo hacen porque tienen el contexto adecuado”, dijo Chase. “Pienso que la ingeniería de contexto es padecer la información correcta en el formato correcto al LLM en el momento adecuado”. Escuche el podcast para entender más sobre:

  • Cómo LangChain construyó su pila: LangGraph como pilar central, LangChain en el centro, Deep Agents en la parte superior.

  • Por qué codificar entornos aislados será el próximo gran avance.

  • Cómo evolucionará un tipo diferente de UX a medida que los agentes se ejecuten a intervalos más largos (o de forma continua).

  • Por qué los rastros y la observabilidad son fundamentales para crear un agente que en realidad funcione.

Incluso puedes escuchar y suscribirte Más allá del piloto en Spotify, Manzana o dondequiera que obtengas tus podcasts.

Related Posts

Transmisiones en vivo de Strade Bianche 2026: cómo ver ciclismo en tangente GRATIS

Las transmisiones en vivo de Strade Bianche 2026 son más notables para Tadej Pogačar. La famosa carrera en ruta de un día no solo es el primer evento del esloveno…

Esquema de premios para editores del MWC 2026: las 9 innovaciones que se robaron el show

El Mobile World Congress (MWC) ha sido durante mucho tiempo el atmósfera total donde se revela el futuro de la tecnología de consumo. Desde teléfonos inteligentes innovadores hasta hardware empírico…

Leave a Reply

Your email address will not be published. Required fields are marked *

You Missed

Anticipos afectan solvencia de microempresas y frenan su formalización, dice funcionario

Anticipos afectan solvencia de microempresas y frenan su formalización, dice funcionario

Michelle Galván revela que será mama por segunda vez

Michelle Galván revela que será mama por segunda vez

Savannah Guthrie invitado fuera de pantalla el software ‘Today’, mientras su mama sigue desaparecida

Savannah Guthrie invitado fuera de pantalla el software ‘Today’, mientras su mama sigue desaparecida

Transmisiones en vivo de Strade Bianche 2026: cómo ver ciclismo en tangente GRATIS

Transmisiones en vivo de Strade Bianche 2026: cómo ver ciclismo en tangente GRATIS

Esquema de premios para editores del MWC 2026: las 9 innovaciones que se robaron el show

Esquema de premios para editores del MWC 2026: las 9 innovaciones que se robaron el show

Sinopsis rápido de los periódicos dominicanos

Sinopsis rápido de los periódicos dominicanos