
Los agentes de IA empresarial hoy enfrentan un problema de sincronización fundamental: no pueden ejecutar fácilmente en eventos comerciales críticos porque no siempre están al tanto de ellos en tiempo actual.
El desafío es la infraestructura. La mayoría de los datos empresariales residen en bases de datos alimentadas por trabajos de extirpación, transformación y carga (ETL) que se ejecutan cada hora o diariamente; en última instancia, son demasiado lentos para los agentes que deben contestar en tiempo actual.
Una forma potencial de invadir ese desafío es hacer que los agentes interactúen directamente con los sistemas de transmisión de datos. Entre los principales enfoques que se utilizan hoy en día se encuentran el código amplio. Apache Kafka y tecnologías Apache Flink. Igualmente existen múltiples implementaciones comerciales basadas en esas tecnologías, Confluenteque está liderado por los creadores originales detrás de Kafka, siendo uno de ellos.
Hoy, Confluent presenta un motor de contexto en tiempo actual diseñado para resolver este problema de latencia. La tecnología se friso en Apache Kafka, la plataforma distribuida de transmisión de eventos que captura datos a medida que ocurren los eventos, y Apache Flink de código amplio, el motor de procesamiento de transmisión que transforma esos eventos en tiempo actual.
La compañía asimismo está lanzando un ámbito de código amplio, Flink Agents, desarrollado en colaboración con Alibaba Cloud, LinkedIn y Ververica. El ámbito brinda capacidades de agentes de IA impulsados por eventos directamente a Apache Flink, lo que permite a las organizaciones crear agentes que monitorean los flujos de datos y se activan automáticamente según las condiciones sin comprometerse con la plataforma administrada de Confluent.
"Hoy en día, la mayoría de los sistemas de IA empresarial no pueden contestar automáticamente a eventos importantes en una empresa sin que algún se los indique primero." Sean Falconer, dirigente de IA de Confluent, dijo a VentureBeat. "Esto genera pérdida de ingresos, clientes insatisfechos o riesgos adicionales cuando falta un suscripción o una red no funciona correctamente."
La importancia se extiende más allá de los productos específicos de Confluent. La industria está reconociendo que los agentes de IA requieren una infraestructura de datos diferente a la de las aplicaciones tradicionales. Los agentes no solo recuperan información cuando se les solicita. Necesitan observar flujos continuos de eventos comerciales y ejecutar automáticamente cuando las condiciones lo justifiquen. Esto requiere una casa de transmisión, no canalizaciones por lotes.
Conjunto frente a streaming: por qué RAG por sí solo no es suficiente
Para comprender el problema, es importante distinguir entre los diferentes enfoques para mover datos a través de sistemas empresariales y cómo pueden conectarse a la IA agente.
En el procesamiento por lotes, los datos se acumulan en los sistemas de origen hasta que se ejecuta un trabajo programado. Ese trabajo extrae los datos, los transforma y los carga en una pulvínulo de datos o almacén de datos de destino. Esto puede ocurrir cada hora, diariamente o incluso semanalmente. El enfoque funciona correctamente para cargas de trabajo analíticas, pero crea latencia entre el momento en que sucede poco en el negocio y el momento en que los sistemas pueden ejecutar en consecuencia.
La transmisión de datos invierte este maniquí. En superficie de esperar trabajos programados, las plataformas de transmisión como Apache Kafka capturan los eventos a medida que ocurren. Cada aggiornamento de la pulvínulo de datos, movimiento del adjudicatario, transacción o lección de sensor se convierte en un evento publicado en una secuencia. Luego, Apache Flink procesa estos flujos para unir, filtrar y juntar datos en tiempo actual. El resultado son datos procesados que reflejan el estado coetáneo del negocio y se actualizan continuamente a medida que llegan nuevos eventos.
Esta distinción se vuelve crítica cuando se considera qué tipos de contexto positivamente necesitan los agentes de IA. Gran parte del debate coetáneo sobre la IA empresarial se centra en la procreación aumentada de recuperación (RAG), que maneja la búsqueda semántica en bases de conocimiento para encontrar documentación, políticas o información histórica relevante. RAG funciona correctamente para preguntas como "¿Cuál es nuestra política de reembolso?" donde la respuesta existe en documentos estáticos.
Pero muchos casos de uso empresarial requieren lo que Falconer ardor "contexto estructural" — información precisa y actualizada de múltiples sistemas operativos unidos en tiempo actual. Considere un agente de recomendación gremial que requiere datos de perfil de adjudicatario de la pulvínulo de datos de bienes humanos, comportamiento de navegación de la última hora, consultas de búsqueda de hace minutos y puestos vacantes actuales en múltiples sistemas.
"La parte que estamos desbloqueando para las empresas es la capacidad de atender esencialmente ese contexto estructural necesario para ofrecer la interpretación más actualizada." Dijo Falconer.
El problema de la conexión MCP: datos obsoletos y contexto fragmentado
El desafío no es simplemente conectar la IA con los datos empresariales. Model Context Protocol (MCP), introducido por Anthropic a principios de este año, ya estandarizó cómo los agentes acceden a las fuentes de datos. El problema es lo que sucede luego de realizar la conexión.
En la mayoría de las arquitecturas empresariales actuales, los agentes de IA se conectan a través de MCP a lagos de datos o almacenes alimentados por canalizaciones ETL por lotes. Esto crea dos fallas críticas: los datos están obsoletos, reflejan la sinceridad de ayer en superficie de los eventos actuales, y están fragmentados en múltiples sistemas, lo que requiere un preprocesamiento significativo ayer de que un agente pueda razonar sobre ellos de forma efectiva.
La alternativa (colocar servidores MCP directamente frente a bases de datos operativas y API) crea diferentes problemas. Esos puntos finales no fueron diseñados para el consumo de agentes, lo que puede originar altos costos simbólicos a medida que los agentes procesan datos sin procesar excesivos y múltiples bucles de inferencia mientras intentan dar sentido a respuestas no estructuradas.
"Las empresas tienen los datos, pero a menudo están obsoletos, fragmentados o bloqueados en formatos que la IA no puede utilizar de forma eficaz." Falconer explicó. "El motor de contexto en tiempo actual resuelve esto unificando el procesamiento, reprocesamiento y servicio de datos, convirtiendo flujos de datos continuos en contexto en vivo para tomar decisiones de IA más inteligentes, más rápidas y más confiables."
La casa técnica: tres capas para el contexto del agente en tiempo actual
La plataforma de Confluent zapatilla tres utensilios que funcionan juntos o se adoptan por separado.
la rmotor de contexto en tiempo actual es la capa de infraestructura de datos administrada en Confluent Cloud. Los conectores extraen datos de temas de Kafka a medida que ocurren los eventos. Los trabajos de Flink procesan estos flujos en "conjuntos de datos derivados" – vistas materializadas que unen señales históricas y en tiempo actual. Para la atención al cliente, esto podría combinar el historial de la cuenta, el comportamiento de la sesión coetáneo y el estado del inventario en un objeto de contexto unificado. El motor expone esto a través de un servidor MCP administrado.
Agentes de transmisión es el ámbito patentado de Confluent para crear agentes de inteligencia fabricado que se ejecutan de forma nativa en Flink. Estos agentes monitorean los flujos de datos y se activan automáticamente según las condiciones; no esperan indicaciones. El ámbito incluye definiciones de agentes simplificadas, observabilidad integrada e integración nativa de Claude de Anthropic. Está adecuado en instinto previa abierta en la plataforma de Confluent.
Agentes Flink es el ámbito de código amplio desarrollado con Alibaba Cloud, LinkedIn y Ververica. Aporta capacidades de agentes basados en eventos directamente a Apache Flink, lo que permite a las organizaciones crear agentes de streaming sin comprometerse con la plataforma administrada de Confluent. Ellos mismos manejan la complejidad operativa pero evitan la dependencia del proveedor.
Se intensifica la competencia por la infraestructura de datos preparada para agentes
Confluent no es el único que reconoce que los agentes de IA necesitan una infraestructura de datos diferente.
El día ayer del anuncio de Confluent, su rival panda rojo presentó su propio plano de datos agentes, que combina streaming, SQL y gobernanza específicamente para agentes de IA. Redpanda adquirió el motor SQL distribuido de Oxla para congratular a los agentes puntos finales SQL habitual para consultar datos en movimiento o en reposo. La plataforma enfatiza la conectividad compatible con MCP, la observabilidad total de las interacciones de los agentes y lo que ella ardor "control de golpe agente" con tokens detallados y de corta duración.
Los enfoques arquitectónicos difieren. Confluent enfatiza el procesamiento de flujo con Flink para crear conjuntos de datos derivados optimizados para los agentes. Redpanda enfatiza las consultas SQL federadas entre fuentes dispares. Uno y otro reconocen que los agentes necesitan un contexto en tiempo actual con gobernanza y observabilidad.
Más allá de los competidores de transmisión directa, Databricks y Snowflake son plataformas fundamentalmente analíticas que agregan capacidades de transmisión. Su punto esforzado son las consultas complejas sobre grandes conjuntos de datos, con la transmisión como mejoría. Confluent y Redpanda invierten esto: el streaming es la pulvínulo, con cargas de trabajo analíticas y de IA construidas sobre los datos en movimiento.
Cómo funciona el contexto de transmisión en la habilidad
Entre los usuarios del sistema de Confluent se encuentra el proveedor de transporte. ocupada. La empresa está creando un sistema eficaz nuevo para empresas de autobuses chárter que les ayuda a administrar cotizaciones, viajes, pagos y conductores en tiempo actual.
"La transmisión de datos es lo que lo hace posible," Louis Bookoff, cofundador y director ejecutor de Busie, dijo a VentureBeat. "Con Confluent, movemos datos instantáneamente entre diferentes partes de nuestro sistema en superficie de esperar actualizaciones nocturnas o informes por lotes. Eso mantiene todo sincronizado y nos ayuda a ofrecer nuevas funciones más rápido.
Bookoff señaló que la misma pulvínulo es lo que hará que la IA genómica sea valiosa para sus clientes.
"En nuestro caso, cada movimiento, como dirigir una cotización o asignar un conductor, se convierte en un evento que se transmite a través del sistema de inmediato." dijo Bookoff. "Esa transmisión de información en vivo es lo que permitirá que nuestras herramientas de inteligencia fabricado respondan en tiempo actual con mengua latencia en superficie de simplemente resumir lo que ya sucedió."
El desafío, sin bloqueo, es cómo entender el contexto. Cuando miles de eventos en vivo fluyen por el sistema cada minuto, los modelos de IA necesitan datos relevantes y precisos sin encontrarse abrumados.
"Si los datos no se basan en lo que sucede en el mundo actual, la IA puede fácilmente hacer suposiciones erróneas y, a su vez, tomar acciones equivocadas." dijo Bookoff. "El procesamiento de flujo resuelve este problema al validar y conciliar continuamente los datos en vivo con la actividad en Busie."
Qué significa esto para la logística de IA empresarial
SLa casa de contexto cambiante señala un cambio fundamental en la forma en que los agentes de IA consumen datos empresariales.
Los agentes de IA requieren un contexto continuo que combine la comprensión histórica con la conciencia en tiempo actual: necesitan asimilar qué sucedió, qué está sucediendo y qué podría suceder a continuación, todo al mismo tiempo.
Para las empresas que evalúan este enfoque, comience por identificar los casos de uso en los que la obsolescencia de los datos interrumpe el agente. La detección de fraude, la investigación de anomalías y la intervención del cliente en tiempo actual fallan con canalizaciones por lotes que se actualizan cada hora o diariamente. Si sus agentes necesitan ejecutar sobre eventos segundos o minutos luego de que ocurran, el contexto de transmisión se vuelve necesario en superficie de opcional.
"Cuando creas aplicaciones sobre modelos básicos, conveniente a que son intrínsecamente probabilísticos, utilizas datos y contexto para dirigir el maniquí en una dirección en la que deseas obtener algún tipo de resultado." Dijo Falconer. "Cuanto mejor pueda hacerlo, más confiable y mejor será el resultado."





