
El unificado de código rajado de Anthropic, el Model Context Protocol (MCP), decidido a finales de 2024, permite a los usuarios conectar modelos de IA y los agentes encima de ellos a herramientas externas en un formato estructurado y confiable. Es el motor detrás del exitoso arnés de programación agente de IA de Anthropic, Claude Code, que le permite alcanzar a numerosas funciones como navegación web y creación de archivos inmediatamente cuando se le solicita.
Pero había un problema: Claude Code normalmente tenía que "deletrear" el manual de instrucciones para cada aparejo adecuado, independientemente de si era necesaria para la tarea inmediata, utilizando el contexto adecuado que de otro modo podría cansarse con más información de las indicaciones del heredero o las respuestas del agente.
Al menos hasta anoche. El equipo de Claude Code lanzó una aggiornamento que altera fundamentalmente esta ecuación. La función, denominada MCP Tool Search, presenta "carga diferida" para herramientas de IA, lo que permite a los agentes averiguar dinámicamente definiciones de herramientas solo cuando sea necesario.
Es un cambio que lleva a los agentes de IA de una inmueble de fuerza bruta a poco parecido a la ingeniería de software moderna y, según los primeros datos, resuelve eficazmente el problema. "inflar" problema que amenazaba con ahogar el ecosistema.
El ‘impuesto original’ a los agentes
Para comprender la importancia de la búsqueda de herramientas, es necesario comprender la fricción del sistema precursor. El Model Context Protocol (MCP), decidido en 2024 por Anthropic como unificado de código rajado, fue diseñado para ser un unificado universal para conectar modelos de IA a fuentes de datos y herramientas, desde repositorios de GitHub hasta sistemas de archivos locales.
Sin requisa, a medida que el ecosistema crecía, incluso lo hacía el "impuesto original."
Thariq Shihipar, miembro del personal técnico de Anthropic, destacó la magnitud del problema en el anuncio.
"Descubrimos que los servidores MCP pueden tener hasta más de 50 herramientas," Shihipar escribió. "Los usuarios estaban documentando configuraciones con más de 7 servidores que consumían más de 67.000 tokens."
En términos prácticos, esto significaba que un desarrollador que utilizara un conjunto sólido de herramientas podría martirizar el 33% o más de su margen de ventana de contexto adecuado de 200.000 tokens incluso antiguamente de escribir un solo carácter de un mensaje, como El autor del boletín AI, Aakash Gupta, señaló en una publicación en X.
El maniquí fue efectivamente "repaso" cientos de páginas de documentación técnica para herramientas que quizás nunca utilice durante esa sesión.
El investigación comunitario proporcionó ejemplos aún más claros.
Gupta señaló adicionalmente que un único servidor Docker MCP podría consumir 125.000 tokens solo para explicar sus 135 herramientas.
"La antigua restricción obligó a un intercambio formidable," él escribió. "Limite sus servidores MCP a 2 o 3 herramientas principales o acepte que la medio de su presupuesto de contexto desaparezca antiguamente de comenzar a trabajar."
Cómo funciona la búsqueda de herramientas
La decisión que lanzó Anthropic, que Shihipar llamó "una de nuestras funciones más solicitadas en GitHub" – es elegante en su moderación. En puesto de precargar cada definición, Claude Code ahora monitorea el uso del contexto.
Según las notas de la lectura, el sistema detecta automáticamente cuando las descripciones de las herramientas consumirían más del 10% del contexto adecuado.
Cuando se cruza ese umbralado, el sistema cambia de logística. En puesto de volcar documentación sin procesar en el mensaje, carga un índice de búsqueda voluble.
Cuando el heredero solicita una obra específica, digamos, "implementar este contenedor"—Claude Code no escanea una registro masiva precargada de 200 comandos. En cambio, consulta el índice, encuentra la definición de aparejo relevante y extrae solo esa aparejo específica al contexto.
"La búsqueda de herramientas invierte la inmueble," Gupta analizó. "Los ahorros de tokens son espectaculares: de ~134.000 a ~5.000 en las pruebas internas de Anthropic. Esto supone una reducción del 85 % manteniendo el entrada total a las herramientas."
Para los desarrolladores que mantienen servidores MCP, esto cambia la logística de optimización.
Shihipar señaló que el campo “instrucciones del servidor” en la definición de MCP (anteriormente un "bueno tener"—Es ahora crítico. Actúa como los metadatos que ayudan a Claude. "Sepa cuándo averiguar sus herramientas, similares a las habilidades."
‘Carga diferida’ y aumento de precisión
Si admisiblemente los ahorros simbólicos son la métrica principal (atesorar pasta y memoria siempre es popular), el intención secundario de esta aggiornamento podría ser más importante: el enfoque.
Los LLM son notoriamente sensibles a "distracción." Cuando la ventana de contexto de un maniquí está repleta de miles de líneas de definiciones de herramientas irrelevantes, su capacidad de razonar disminuye. Crea un "jeringuilla en un pajar" problema en el que el maniquí tiene dificultades para diferenciar entre comandos similares, como “notificación-enviar-usuario” contra “notificación-enviar-canal”.
Boris Cherny, director de Claude Code, lo destacó en su reacción al tirada de X: "Cada heredero de Claude Code acaba de obtener mucho más contexto, un mejor seguimiento de instrucciones y la capacidad de conectar aún más herramientas."
Los datos respaldan esto. Los puntos de narración internos compartidos por la comunidad indican que habilitar la búsqueda de herramientas mejoró la precisión del maniquí Opus 4 en las evaluaciones de MCP del 49 % al 74 %.
Para el Opus 4.5 más nuevo, la precisión saltó del 79,5% al 88,1%.
Al eliminar el ruido de cientos de herramientas no utilizadas, el maniquí puede designar su "atención" mecanismos a la consulta actual del heredero y las herramientas activas pertinentes.
Reflexionar la pila
Esta aggiornamento indica una maduración en la forma en que tratamos la infraestructura de IA. En los inicios de cualquier pauta de software, la fuerza bruta era popular. Pero a medida que los sistemas crecen, la eficiencia se convierte en el principal desafío de ingeniería.
Aakash Gupta trazó un paralelo con la progreso de los entornos de expansión integrados (IDE) como VSCode o JetBrains. "El cuello de botella no fue “demasiadas herramientas”.
Estaba cargando definiciones de herramientas como importaciones estáticas de la era 2020 en puesto de carga diferida de la era 2024." él escribió. "VSCode no carga todas las extensiones al inicio. JetBrains no inyecta los documentos de todos los complementos en la memoria."
Al adoptar "carga diferida"—una mejor destreza unificado en el expansión web y de software—Anthropic reconoce que los agentes de IA ya no son solo novedades; son plataformas de software complejas que requieren disciplina arquitectónica.
Implicaciones para el ecosistema
Para el heredero final, esta aggiornamento es perfecta: Claude Code simplemente se siente "más inteligente" y conserva más memorias de la conversación. Pero para el ecosistema de desarrolladores, abre las compuertas.
Anteriormente, había una "gorro blanda" sobre cuán capaz podría ser un agente. Los desarrolladores tuvieron que decantarse cuidadosamente sus conjuntos de herramientas para evitar lobotomizar el maniquí con un contexto excesivo. Con Tool Search, ese margen se elimina de guisa efectiva. En teoría, un agente puede tener entrada a miles de herramientas (conectores de bases de datos, scripts de implementación en la aglomeración, contenedores de API, manipuladores de archivos locales) sin avalar una penalización hasta que esas herramientas verdaderamente se utilicen.
convierte el "posesiones de contexto" de un maniquí de escasez a un maniquí de entrada. Como resumió Gupta, "No sólo están optimizando el uso del contexto. Están cambiando lo que puede significar “agentes ricos en herramientas”."
La aggiornamento se implementará de inmediato para los usuarios de Claude Code. Para los desarrolladores que crean clientes MCP, Anthropic recomienda implementar `ToolSearchTool` para aprobar esta carga dinámica, asegurando que cuando llegue el futuro agente, no se quede sin memoria antiguamente de saludar.






