MCP y la paradoja de la innovación: por qué los estándares abiertos salvarán la IA de sí misma


Únase a nuestros boletines diarios y semanales para obtener las últimas actualizaciones y contenido exclusivo sobre la cobertura de IA líder de la industria. Obtenga más información


Los modelos más grandes no conducen la próxima ola de innovación de IA. La verdadera interrupción es más tranquila: la estandarización.

Agresivo por Anthrope en noviembre de 2024, el Protocolo de contexto del maniquí (MCP) estandariza cómo las aplicaciones de IA interactúan con el mundo más allá de sus datos de capacitación. Al igual que HTTP y REST estandarizaron cómo las aplicaciones web se conectan a los servicios, MCP estandariza cómo los modelos de IA se conectan a las herramientas.

Probablemente haya instruido una docena de artículos que explican qué es MCP. Pero lo que la mayoría extraña es la parte aburrida y poderosa: MCP es un tipificado. Los estándares no solo organizan la tecnología; Crean volantes de crecimiento. Adoptarlos temprano y montarás la ola. Ignóralos y te quedas a espaldas. Este artículo explica por qué MCP importa ahora, qué desafía que presenta y cómo ya está remodelando el ecosistema.

Cómo MCP nos mueve del caos al contexto

Conozca a Lily, una jefe de producto en una empresa de infraestructura en la aglomeración. Ella hace malabares con los proyectos en media docena de herramientas como Jira, Figma, Github, Slack, Gmail y Confluence. Como muchos, se está ahogando en actualizaciones.

Para 2024, Lily vio cuán buenos modelos de idiomas grandes (LLM) se habían vuelto en sintetizar información. Vio una oportunidad: si pudiera avivar todas las herramientas de su equipo a una maniquí, podría automatizar actualizaciones, redactar comunicaciones y objetar preguntas a pedido. Pero cada maniquí tenía su forma personalizada de conectarse a los servicios. Cada integración la llevó más profundo en la plataforma de un solo proveedor. Cuando necesitaba extraer transcripciones de Batintín, significaba construir otra conexión a medida, lo que hace que sea aún más difícil cambiar a un mejor LLM más tarde.

Luego, Anthrope lanzó MCP: un protocolo franco para estandarizar cómo fluye el contexto a LLMS. MCP rápidamente recogió el respaldo de Opadai, AWS, Azur, Microsoft Copilot Studio Y, pronto, Google. Los SDK oficiales están disponibles para Pitón, Mecanografiado, Java, DO#, Óxido, Kotlín y Rápido. SDK de la comunidad para Ir y otros lo siguieron. La asimilación fue rápida.

Hoy, Lily ejecuta todo a través de Claude, conectado a sus aplicaciones de trabajo a través de un servidor MCP particular. Los informes de estado se redactan a sí mismos. Las actualizaciones de liderazgo están a un aviso de distancia. A medida que surgen nuevas modelos, puede cambiarlas sin perder ninguna de sus integraciones. Cuando escribe código en el costado, usa el cursor con un maniquí de Operai y el mismo servidor MCP que en Claude. Su ide ya entiende el producto que está construyendo. MCP lo hizo casquivana.

El poder y las implicaciones de un tipificado

La historia de Lily muestra una verdad simple: a nadie le gusta usar herramientas fragmentadas. Ningún favorecido le gusta que haya sido bloqueado en proveedores. Y ninguna empresa quiere reescribir integraciones cada vez que cambian de modelos. Quieres espontaneidad para usar las mejores herramientas. MCP entrega.

Ahora, con los estándares vienen implicaciones.

Primero, los proveedores de SaaS sin fuertes API públicas son vulnerables a la obsolescencia. Las herramientas de MCP dependen de estas API, y los clientes exigirán soporte para sus aplicaciones de IA. Con un tipificado de facto emergente, no hay excusas.

En segundo circunstancia, los ciclos de avance de aplicaciones de IA están a punto de acelerar dramáticamente. Los desarrolladores ya no tienen que escribir un código personalizado para probar aplicaciones simples de IA. En cambio, pueden integrar los servidores MCP con clientes MCP fácilmente disponibles, como Claude Desktop, Cursor y Windsurf.

Tercero, los costos de cambio están colapsando. Hexaedro que las integraciones están desacopladas de modelos específicos, las organizaciones pueden portar de Claude a OpenAi a Géminis, o combinar modelos, sin restablecer la infraestructura. Los proveedores de Future LLM se beneficiarán de un ecosistema existente en torno a MCP, lo que les permite centrarse en un mejor rendimiento de los precios.

Navegar desafíos con MCP

Cada tipificado introduce nuevos puntos de fricción o deja los puntos de fricción existentes sin resolver. MCP no es una excepción.

La confianza es crítica: Han aparecido docenas de registros de MCP, que ofrecen miles de servidores mantenidos por la comunidad. Pero si no controla el servidor, o confía en la parte que lo hace, corre el aventura de filtrar secretos a un tercero desconocido. Si es una empresa SaaS, proporcione servidores oficiales. Si eres un desarrollador, sondeo servidores oficiales.

La calidad es variable: Las API evolucionan, y los servidores MCP mal mantenidos pueden caer fácilmente de sincronización. Los LLM se basan en metadatos de adhesión calidad para determinar qué herramientas usar. Todavía no existe un registro competente de MCP, reforzando la pobreza de servidores oficiales de partes de confianza. Si usted es una empresa SaaS, mantenga sus servidores a medida que evolucionen sus API. Si eres un desarrollador, sondeo servidores oficiales.

Los grandes servidores de MCP aumentan los costos y la utilidad más víctima: Bundling demasiadas herramientas en un solo servidor aumenta los costos a través del consumo de tokens y abruman modelos con demasiadas opciones. Los LLM se confunden fácilmente si tienen acercamiento a demasiadas herramientas. Es lo peor de uno y otro mundos. Los servidores más pequeños centrados en la tarea serán importantes. Tenga esto en cuenta mientras construye y distribuye servidores.

Los desafíos de autorización e identidad persisten: Estos problemas existían ayer de MCP, y todavía existen con MCP. Imagine que Lily le dio a Claude la capacidad de cursar correos electrónicos y dio instrucciones aceptablemente intencionadas como: “Despachar rápidamente a Chris una modernización de estado”. En circunstancia de cursar un correo electrónico a su patriarca, Chris, el LLM envía correos electrónicos a todos los llamados Chris en su relación de contactos para cerciorarse de que Chris reciba el mensaje. Los humanos deberán permanecer en el rizo para acciones de suspensión sensatez.

Mirando con destino a el futuro

MCP no es exagerado: es un cambio fundamental en la infraestructura para aplicaciones de IA.

Y, al igual que todos los estándares aceptablemente adoptados ayer, MCP está creando un volante auto-reforzador: cada nuevo servidor, cada nueva integración, cada nueva aplicación compuesta el impulso.

Ya están surgiendo nuevas herramientas, plataformas y registros para simplificar la construcción, probar, implementar y descubrir los servidores MCP. A medida que evoluciona el ecosistema, las aplicaciones de IA ofrecerán interfaces simples para conectarse a nuevas capacidades. Los equipos que adoptan el protocolo enviarán productos más rápido con mejores historias de integración. Las empresas que ofrecen API públicas y los servidores oficiales de MCP pueden ser parte de la historia de integración. Los adoptantes tardíos tendrán que contender por la relevancia.

Noah Schwartz es patriarca de producto para Cartero.


Related Posts

El perímetro SSD USB Type-C M.2 de Sabrent se redujo a solo $ 22 en Amazon

El Sabrent USB 3.2 Tipo-C M.2 Circuito SSD ahora está acondicionado en Amazon para uno de sus precios más bajos hasta la término, según Price Tracker CamelCamelCamel. Este pequeño y…

Los científicos dicen que este chip con bismuto es un 40% más rápido que los mejores de Intel: ¿están terminados oficialmente los procesadores de silicio?

El transistor de la Universidad de Pekín podría pasar a Intel, TSMC y los chips de silicio superiores de Samsung La cobertura completa de la puerta aumenta la velocidad y…

Leave a Reply

Your email address will not be published. Required fields are marked *

You Missed

Digecac siembra más de 1,200 plantas en albarrada de la Fuerza Aérea

Digecac siembra más de 1,200 plantas en albarrada de la Fuerza Aérea

Petróleo de Texas sube 4% semanal tras indicios de EE.UU. de relajar tensiones comerciales

Petróleo de Texas sube 4% semanal tras indicios de EE.UU. de relajar tensiones comerciales

El servicio agua estará restringido en el Distrito Franquista – Remolacha

El servicio agua estará restringido en el Distrito Franquista – Remolacha

El perímetro SSD USB Type-C M.2 de Sabrent se redujo a solo $ 22 en Amazon

El perímetro SSD USB Type-C M.2 de Sabrent se redujo a solo $ 22 en Amazon

Fallece motociclista tras extraordinario choque

Fallece motociclista tras extraordinario choque

¿Cómo guardar tiempo y fortuna en el aeropuerto? – Remolacha

¿Cómo guardar tiempo y fortuna en el aeropuerto? – Remolacha