
La novelística de la IA ha estado dominada principalmente por el desempeño del maniquí en puntos de remisión esencia de la industria. Pero a medida que el campo madura y las empresas buscan sacar valía existente de los avances en IA, estamos viendo investigaciones paralelas en técnicas que ayudan a producir aplicaciones de IA.
En VentureBeat, estamos rastreando investigaciones de IA que pueden ayudar a comprender en dirección a dónde se dirige la implementación actos de la tecnología. Esperamos avances que no se refieran sólo a la inteligencia bruta de un solo maniquí, sino incluso a cómo diseñamos los sistemas que lo rodean. A medida que nos acercamos al año 2026, presentamos cuatro tendencias que pueden representar el maniquí para la próxima engendramiento de aplicaciones empresariales sólidas y escalables.
Formación continuo
El formación continuo aborda uno de los desafíos esencia de los modelos actuales de IA: enseñarles nueva información y habilidades sin destruir sus conocimientos existentes (a menudo denominado “olvido catastrófico”).
Tradicionalmente, existen dos formas de solucionar este problema. Una es retornar a entrenar el maniquí con una combinación de información antigua y nueva, lo cual es costoso, requiere mucho tiempo y es extremadamente complicado. Esto lo hace inaccesible para la mayoría de las empresas que utilizan modelos.
Otra decisión es proporcionar a los modelos información en contexto mediante técnicas como RAG. Sin retención, estas técnicas no actualizan el conocimiento interno del maniquí, lo que puede resultar problemático a medida que se aleja del periferia de conocimiento del maniquí y los hechos comienzan a entrar en conflicto con lo que era cierto en el momento del entrenamiento del maniquí. Además requieren mucha ingeniería y están limitados por las ventanas de contexto de los modelos.
El formación continuo permite a los modelos desempolvar su conocimiento interno sin exigencia de retornar a capacitarse. Google ha estado trabajando en esto con varias arquitecturas de modelos nuevas. Uno de ellos es Titans, que propone una primitiva diferente: un módulo de memoria a generoso plazo aprendido que permite al sistema incorporar contexto histórico en el momento de la inferencia. De guisa intuitiva, traslada parte del “formación” de las actualizaciones de peso fuera de camino a un proceso de memoria en camino, más cercano a cómo los equipos ya piensan sobre cachés, índices y registros.
Nested Learning impulsa el mismo tema desde otro ángulo. Negociación un maniquí como un conjunto de problemas de optimización anidados, cada uno con su propio flujo de trabajo interno, y utiliza ese situación para enfrentarse olvidos catastróficos.
Los modelos de lengua habitual basados en transformadores tienen capas densas que almacenan la memoria a generoso plazo obtenida durante el entrenamiento previo y capas de atención que contienen el contexto inmediato. Nested Learning introduce un “sistema de memoria continua”, donde la memoria se ve como un espectro de módulos que se actualizan a diferentes frecuencias. Esto crea un sistema de memoria que está más en sintonía con el formación continuo.
El formación continuo es complementario al trabajo que se realiza para dotar a los agentes de memoria a corto plazo mediante la ingeniería de contexto. A medida que madure, las empresas pueden esperar una engendramiento de modelos que se adapten a entornos cambiantes, decidiendo dinámicamente qué nueva información internalizar y cuál preservar en la memoria a corto plazo.
Modelos mundiales
Los modelos mundiales prometen congratular a los sistemas de inteligencia industrial la capacidad de comprender sus entornos sin la exigencia de datos etiquetados por humanos o texto generado por humanos. Con los modelos mundiales, los sistemas de IA pueden reponer mejor a eventos impredecibles y fuera de distribución y volverse más robustos frente a la incertidumbre del mundo existente.
Más importante aún, los modelos mundiales abren el camino para sistemas de inteligencia industrial que pueden ir más allá del texto y resolver tareas que involucran entornos físicos. Los modelos del mundo intentan memorizar las regularidades del mundo físico directamente a partir de la observación y la interacción.
Existen diferentes enfoques para crear modelos mundiales. DeepMind está construyendo Genie, una comunidad de modelos generativos de extremo a extremo que simulan un entorno para que un agente pueda predecir cómo evolucionará el entorno y cómo las acciones lo cambiarán. Toma una imagen o mensaje yuxtapuesto con las acciones del sucesor y genera la secuencia de cuadros de video que reflejan cómo cambia el mundo. Genie puede crear entornos interactivos que se pueden utilizar para diferentes propósitos, incluidos robots de entrenamiento y vehículos autónomos.
Laboratorios mundialesuna nueva startup fundada por el pionero de la IA Fei-Fei Li, adopta un enfoque sutilmente diferente. Marble, el primer sistema de IA de World Labs, utiliza IA generativa para crear un maniquí 3D a partir de una imagen o un mensaje, que luego puede ser utilizado por un motor de física y 3D para renderizar y afectar el entorno interactivo utilizado para entrenar robots.
Otro enfoque es la Bloque Predictiva de Incrustación Conjunta (JEPA) adoptada por el vencedor del Premio Turing y exjefe de Meta AI, Yann LeCun. Los modelos JEPA aprenden representaciones latentes a partir de datos sin procesar para que el sistema pueda anticipar lo que viene a continuación sin crear cada píxel.
Los modelos JEPA son mucho más eficientes que los modelos generativos, lo que los hace adecuados para aplicaciones de IA de ritmo rápido en tiempo existente que deben ejecutarse en dispositivos con fortuna limitados. V-JEPA, la interpretación en video de la bloque, está previamente entrenada en video sin etiquetar a escalera de Internet para memorizar modelos del mundo a través de la observación. Luego agrega una pequeña cantidad de datos de interacción de las trayectorias de los robots para respaldar la planificación. Esa combinación sugiere un camino en el que las empresas aprovechan mucho video pasivo (capacitación, inspección, cámaras para tablero, comercio minorista) y agregan datos de interacción limitados y de parada valía donde necesitan control.
En noviembre, LeCun confirmó que dejará Meta y lanzará una nueva startup de IA que buscará “sistemas que comprendan el mundo físico, tengan memoria persistente, puedan razonar y planificar secuencias de batalla complejas”.
Orquestación
Los LLM de Frontier continúan avanzando en puntos de remisión muy desafiantes, y a menudo superan a los expertos humanos. Pero cuando se negociación de tareas del mundo existente y flujos de trabajo de agentes de varios pasos, incluso los modelos sólidos fallan: pierden contexto, llaman a herramientas con parámetros incorrectos y agravan pequeños errores.
La orquestación negociación esas fallas como problemas de sistemas que pueden abordarse con la estructura y la ingeniería adecuadas. Por ejemplo, un enrutador elige entre un maniquí pequeño y rápido, un maniquí más alto para pasos más difíciles, recuperación para conexión a tierra y herramientas deterministas para acciones.
Ahora existen múltiples marcos que crean capas de orquestación para mejorar la eficiencia y precisión de los agentes de IA, especialmente cuando se utilizan herramientas externas. OctoTools de Stanford es un situación de código despejado que puede orquestar múltiples herramientas sin la exigencia de afinar o ajustar los modelos. OctoTools utiliza un enfoque modular que planifica una decisión, selecciona herramientas y pasa subtareas a diferentes agentes. OctoTools puede utilizar cualquier LLM de uso militar como columna vertebral.
Otro enfoque es entrenar un maniquí de orquestador especializado que pueda dividir el trabajo entre diferentes componentes del sistema de IA. Un ejemplo de ello es Orchestrator de Nvidia, un maniquí de 8 mil millones de parámetros que coordina diferentes herramientas y LLM para resolver problemas complejos. Orchestrator fue entrenado mediante una técnica específico de formación por refuerzo diseñada para la orquestación de modelos. Puede indicar cuándo utilizar herramientas, cuándo delegar tareas a pequeños modelos especializados y cuándo utilizar las capacidades de razonamiento y el conocimiento de grandes modelos generalistas.
Una de las características de estos y otros marcos similares es que pueden beneficiarse de los avances en los modelos subyacentes. Entonces, a medida que sigamos viendo avances en los modelos de frontera, podemos esperar que los marcos de orquestación evolucionen y ayuden a las empresas a crear aplicaciones agentes sólidas y eficientes en el uso de fortuna.
Refinamiento
Las técnicas de refinamiento convierten “una respuesta” en un proceso controlado: proponer, murmurar, revisar y repasar. Enmarca el flujo de trabajo como si utilizara el mismo maniquí para crear un resultado original, producir comentarios sobre él y mejorarlo de forma iterativa, sin formación adicional.
Si adecuadamente las técnicas de autorrefinamiento existen desde hace algunos abriles, es posible que estemos en un punto en el que podamos verlas proporcionar un cambio radical en las aplicaciones agentes. Esto quedó plenamente demostrado en los resultados del Premio ARC, que denominó 2025 como el “Año del caracolillo de refinamiento” y escribió: “Desde la perspectiva de la teoría de la información, el refinamiento es inteligencia”.
ARC prueba modelos en complicados acertijos de razonamiento inmaterial. El propio observación de ARC informa que la decisión de refinamiento más verificada, construida sobre un maniquí de frontera y desarrollado por Poetiqalcanzó el 54 % en ARC-AGI-2, superando al subcampeón, Gemini 3 Deep Think (45 %), a la parte del precio.
La decisión de Poetiq es un sistema recursivo, de alivio cibernética e independiente del LLM. Está diseñado para exprimir las capacidades de razonamiento y el conocimiento del maniquí subyacente para reverberar y perfeccionar su propia decisión e invocar herramientas como intérpretes de código cuando sea necesario.
A medida que los modelos se vuelven más fuertes, amplificar capas de autorrefinamiento permitirá sacarles más provecho. Poetiq ya está trabajando con socios para adaptar su metasistema para “manejar problemas complejos del mundo existente que los modelos fronterizos luchan por resolver”.
Cómo realizar un seguimiento de la investigación de IA en 2026
Una forma actos de descifrar la investigación del próximo año es observar qué nuevas técnicas pueden ayudar a las empresas a trasladar aplicaciones agentes de prueba de conceptos a sistemas escalables.
El formación continuo desplaza el rigor en dirección a la procedencia y retención de la memoria. Los modelos mundiales lo desplazan en dirección a una simulación y predicción sólidas de eventos del mundo existente. La orquestación lo orienta en dirección a un mejor uso de los fortuna. El refinamiento lo desplaza en dirección a la consejo inteligente y la corrección de respuestas.
Los ganadores no sólo elegirán modelos sólidos, sino que construirán el plano de control que mantenga esos modelos correctos, actualizados y rentables.






