
Todos hemos aurícula cuchichear del protocolo de contexto maniquí (MCP) en el contexto de la inteligencia químico. En este artículo, profundizaremos en qué es MCP y por qué es cada día más importante. Cuando las API ya están disponibles, ¿por qué necesitamos MCP? Aunque hemos conocido un gran aumento en la popularidad de MCP, ¿este nuevo protocolo tiene poder de permanencia? En la primera sección, veremos los paralelos entre las API y MCP y luego comenzaremos a explorar qué los diferencia.
De las API al protocolo de contexto maniquí
Una sola computadora aislada tiene una cantidad limitada de datos a los que puede alcanzar y eso tiene un impacto directo en su usabilidad. Las API se crearon para permitir la transferencia de datos entre sistemas. Al igual que las API, Protocolo de contexto maniquí (MCP) es el protocolo de comunicación entre agentes de IA que utilizan modelos de jerga grandes (LLM). Las API están escritas principalmente para desarrolladores, mientras que los servidores MCP se crean para agentes de IA (Johnson, 2025).
¿Qué es MCP?
Anthropic presentó MCP el 25 de noviembre de 2024 como un estereotipado de código franco para permitir la comunicación entre asistentes de IA y fuentes de datos externas. Los agentes de IA están limitados por la fragmentación de datos en sistemas aislados (Anthropic, 2024). el protocolo Define cómo los agentes pueden interactuar con sistemas externos, obtener información del legatario y habilitar agentes automatizados.
En esencia, MCP utiliza el maniquí de servidor cliente y hay tres características principales para clientes y servidores.
- Servidores MCP: herramientas, bienes e indicaciones
- Clientes de MCP: elaboración, raíces y muestreo
Espacio de coworking TNW City: donde ocurre tu mejor trabajo
Un espacio de trabajo diseñado para el crecimiento, la colaboración y un sinfín de oportunidades para establecer contactos en el corazón de la tecnología.
Para que este artículo sea conciso, nos centraremos en la característica más importante tanto del cliente como del servidor. Para los servidores MCP, las herramientas son la forma principal de realizar tareas complejas y los clientes utilizan la elaboración para permitir una comunicación bidireccional entre el agente y el legatario.
En motivo de chillar explícitamente a las API, los agentes seleccionan y utilizan las herramientas (funciones) apropiadas en función de la información que reciben del legatario. Si una utensilio requiere ciertos parámetros, el agente utilizará la elaboración de datos para obtener los datos del legatario. Esto permite un flujo de trabajo más receptivo donde es posible la comunicación bidireccional entre LLM y el legatario.
¿Por qué necesitamos MCP ahora?
Una pregunta muy válida es si las API ya están presentes, ¿por qué es necesario MCP? Las API están diseñadas para conectar sistemas de datos fragmentados y las aplicaciones SaaS ya permiten una comunicación bidireccional con un legatario. Entonces, ¿por qué necesitamos MCP ahora?
La principal pobreza de MCP es que el legatario de datos externos ha pasado de ser desarrolladores a agentes de IA. Un desarrollador normalmente programará una aplicación utilizando API que se comportan de forma determinista. Mientras que los agentes de IA utilizarán el mensaje del legatario y tomarán decisiones autónomas para ejecutar la solicitud del legatario. Por naturaleza, la ejecución de un flujo de trabajo por parte de un agente de IA no es determinista.
Las API son un resolución ejecutable por máquina que actúa de forma determinista. Las API funcionan si sus usuarios saben qué batalla se debe tomar a continuación (Posta, 2025). Los agentes de IA se ejecutan sobre LLM probabilísticos que no ofrecen resultados repetibles de modo consistente en todas las tareas (Atil, 2024). Se prórroga variación en la respuesta de un LLM y esto plantea un problema para la ejecución autónoma.
MCP al rescate
MCP resuelve el problema de la variación en la ejecución del agente al proporcionar una idealización de parada nivel que zapatilla la funcionalidad en motivo de los puntos finales de API. Las herramientas permiten a los modelos LLM realizar acciones como inquirir un revoloteo, reservar un calendario y más (Understanding MCP Servers, 2026).
Un error popular sobre las herramientas es que son solo una idealización de las llamadas API existentes. Las herramientas no están diseñadas para ser una idealización de las llamadas API, sino más correctamente una idealización de la funcionalidad. Si muchas API se exponen simplemente como herramientas, aumentará el costo y el tamaño del contexto para el agente, lo cual no es ideal (Johnson, 2025).
Una utensilio puede incluir múltiples llamadas API en su implementación para alcanzar el resultado deseado. Un agente revisará la relación de herramientas disponibles para inclinarse automáticamente las más adecuadas y determinar el orden de ejecución adecuado.
Auge de la admisión de MCP
Desde su emanación en 2024, MCP ha experimentado un aumento constante en popularidad. El próximo descriptivo de Google Trends muestra el interés relativo en MCP desde su emanación.
Muchas empresas han atrevido sus propios servidores MCP para proporcionar la creación de agentes autónomos. En febrero de 2026, el registro oficial de MCP ya tenía registrados más de 6400 servidores MCP. Se prórroga que esta cantidad de servidores MCP aumente en un futuro próximo. El registro oficial para servidores MCP aún está en lectura preliminar y el ecosistema ha crecido enormemente en menos de un año.
Otros actores importantes del mercado han adoptivo MCP y han anejo soporte a sus clientes. OpenAI agregó soporte MCP a ChatGPT en marzo y Google agregó soporte unas semanas luego, en abril de 2025. Esto muestra la capacidad de permanencia del protocolo y el rápido ritmo de admisión.
¿Qué nos prórroga?
MCP aún se encuentra en las primeras etapas de admisión generalizada, donde muchas aplicaciones deben considerar y comenzar a producir. Leonardo Pineryo de Pento AI lo resumió mejor: “El primer año de MCP transformó la forma en que los sistemas de IA se conectan con el mundo. Su segundo año transformará lo que pueden alcanzar” (2025).
Las barreras de seguridad en torno a las herramientas es un dominio que experimentará un maduro mejora, ya que la confianza es una de las mayores preocupaciones de los agentes de IA. Con mejores barreras de seguridad en las herramientas, se puede permitir que un agente de IA actúe con más autonomía. Durante el próximo año, MCP seguramente verá un crecimiento continuo, tanto en la sofisticación de sus capacidades como en el tamaño de su aplicación.





