Liquid AI, filial del MIT, venablo un plan para la capacitación de modelos pequeños de nivel empresarial

Liquid AI, filial del MIT, venablo un plan para la capacitación de modelos pequeños de nivel empresarial

Cuando Liquid AI, una startup fdescubierto por científicos informáticos del MIT en 2023introducido su Liquid Foundation Models serie 2 (LFM2) en julio de 2025el discurso fue sencillo: ofrecer los modelos básicos en el dispositivo más rápidos del mercado utilizando el nuevo "deducido" casa, con eficiencia de entrenamiento e inferencia que convirtió a los modelos pequeños en una alternativa seria a los modelos de lengua espacioso (LLM) solo en la nubarrón, como la serie GPT de OpenAI y Gemini de Google.

El tirada auténtico incluía puntos de control densos con parámetros de 350M, 700M y 1.2B, una casa híbrida fuertemente orientada en torno a convoluciones cortas cerradas y números de narración que colocaron a LFM2 por delante de competidores de tamaño similar como Qwen3, Claridad 3.2 y Gemma 3 tanto en calidad como en rendimiento de CPU. El mensaje a las empresas fue claro: la IA en tiempo existente y que preserva la privacidad en teléfonos, computadoras portátiles y vehículos ya no requería ofrendar la capacidad por latencia.

En los meses transcurridos desde ese tirada, Liquid ha expandido LFM2 a una linde de productos más amplia (agregando variantes especializadas en tareas y dominios, un pequeño maniquí de examen e ingesta de video y una pila de implementación enfocada en el borde indicación LEAP) y posicionó los modelos como la capa de control para sistemas agentes en el dispositivo y en las instalaciones.

Ahora, con la publicación del referencia técnico detallado de LFM2 de 51 páginas sobre arXivla empresa va un paso más allá: hace divulgado el proceso de búsqueda de casa, la combinación de datos de capacitación, el objetivo de destilación, la táctica curricular y el proceso posterior a la capacitación detrás de esos modelos.

Y a diferencia de los modelos abiertos anteriores, LFM2 se zócalo en una récipe repetible: un proceso de búsqueda de hardware en el circuito, un plan de estudios de capacitación que compensa presupuestos de parámetros más pequeños y un proceso posterior a la capacitación optimizado para seguir instrucciones y usar herramientas.

En empleo de simplemente ofrecer pesos y una API, Liquid está publicando efectivamente un maniquí detallado que otras organizaciones pueden usar como narración para entrenar sus propios modelos pequeños y eficientes desde cero, ajustados a sus propias limitaciones de hardware y implementación.

Una grupo de modelos diseñada en torno a limitaciones reales, no a laboratorios de GPU

El referencia técnico comienza con una premisa con la que las empresas están íntimamente familiarizadas: los sistemas reales de IA alcanzan sus límites mucho ayer que los puntos de narración. Los presupuestos de latencia, los límites máximos de memoria y la restricción térmica definen lo que positivamente se puede ejecutar en producción, especialmente en computadoras portátiles, tabletas, servidores básicos y dispositivos móviles.

Para solucionar este problema, Liquid AI realizó una búsqueda de casa directamente en el hardware de destino, incluidos los SoC móviles Snapdragon y las CPU de portátiles Ryzen. El resultado es un resultado consistente en todos los tamaños: una casa híbrida mínima dominada por bloques de convolución cortos cerrados y un pequeño número de atención de consultas agrupadas (GQA) capas. Este diseño fue seleccionado repetidamente sobre híbridos de atención directo y SSM más exóticos porque ofrecía un perfil de Pareto de mejor calidad, latencia y memoria en condiciones reales del dispositivo.

Esto es importante para los equipos empresariales de tres maneras:

  1. Previsibilidad. La casa es simple, efectivo en parámetros y estable en todos los tamaños de modelos, desde 350 millones hasta 2,6 mil millones.

  2. Portabilidad operativa. Las variantes densa y MoE comparten la misma columna vertebral estructural, lo que simplifica la implementación en flotas de hardware mixtas.

  3. Viabilidad en el dispositivo. El rendimiento de precarga y decodificación en las CPU supera los modelos abiertos comparables en aproximadamente el doble en muchos casos, lo que reduce la carestia de descargar tareas rutinarias a puntos finales de inferencia en la nubarrón.

En empleo de optimizar la novedad académica, el referencia se lee como un intento sistemático de diseñar modelos que las empresas puedan en ingenuidad despachar.

Esto es importante y más práctico para las empresas en un campo donde muchos modelos abiertos asumen silenciosamente el paso a clústeres multi-H100 durante la inferencia.

Un canal de capacitación adaptado al comportamiento relevante para la empresa

LFM2 adopta un enfoque de entrenamiento que compensa la pequeño escalera de sus modelos con estructura en empleo de fuerza bruta. Los instrumentos esencia incluyen:

  • Preentrenamiento de tokens de 10 a 12 T y un adicional Grado intermedia de entrenamiento en contexto 32Kque amplía la útil ventana de contexto del maniquí sin disparar los costos de computación.

  • A objetivo de destilación de conocimientos Top-K desacoplado eso evita la inestabilidad de la destilación KL habitual cuando los profesores solo proporcionan logits parciales.

  • A secuencia post-entrenamiento de tres etapas—SFT, afiliación de preferencias normalizada en largo y fusión de modelos—diseñado para producir un seguimiento de instrucciones y un comportamiento de uso de herramientas más confiables.

Para los desarrolladores de IA empresarial, la importancia es que los modelos LFM2 se comportan menos como “pequeños LLM” y más como agentes prácticos capaces de seguir formatos estructurados, sumarse a esquemas JSON y resolver flujos de chat de múltiples turnos. Muchos modelos abiertos de tamaños similares fallan no por desatiendo de capacidad de razonamiento, sino por una deficiente conexión a las plantillas de instrucciones. La récipe post-entrenamiento de LFM2 apunta directamente a estas asperezas.

En otras palabras: modelos pequeños optimizados con Liquid AI para confiabilidad operativano sólo marcadores.

Multimodalidad diseñada para limitaciones de dispositivos, no para demostraciones de laboratorio

Las variantes LFM2-VL y LFM2-Audio reflejan otro cambio: la multimodalidad construida cerca de eficiencia simbólica.

En empleo de incorporar un transformador de visión masivo directamente en un LLM, LFM2-VL conecta un codificador SigLIP2 a través de un conector que reduce agresivamente el recuento de tokens visuales a través de PixelUnshuffle. Las entradas de entrada resolución activan automáticamente el azulejo dinámico, lo que mantiene los presupuestos de tokens controlables incluso en hardware móvil. LFM2-Audio utiliza una ruta de audio bifurcada (una para incrustaciones, otra para reproducción) que admite transcripción en tiempo existente o voz a voz en CPU modestas.

Para los arquitectos de plataformas empresariales, este diseño apunta en torno a un futuro práctico en el que:

  • la comprensión de los documentos ocurre directamente en puntos finales como dispositivos de campo;

  • agentes de transcripción de audio y voz que se ejecutan localmente para cumplir con la privacidad;

  • Los agentes multimodales operan internamente de sobres de latencia fija sin transmitir datos fuera del dispositivo.

El objetivo es el mismo: capacidad multimodal sin carestia de una estancia de GPU.

Modelos de recuperación creados para sistemas de agentes, no para búsquedas heredadas

LFM2-ColBERT amplía la recuperación de interacción tardía a un espacio lo suficientemente pequeño para implementaciones empresariales que necesitan RAG multilingüe sin la sobrecarga de aceleradores de bases de datos vectoriales especializados.

Esto es particularmente significativo a medida que las organizaciones comienzan a organizar flotas de agentes. La recuperación específico rápida (que se ejecuta en el mismo hardware que el maniquí de razonamiento) reduce la latencia y proporciona una superioridad en materia de gobernanza: los documentos nunca salen de los límites del dispositivo.

En conjunto, las variantes VL, Audio y ColBERT muestran a LFM2 como un sistema modular, no como un solo maniquí.

El maniquí emergente para arquitecturas híbridas de IA empresarial

En todas las variantes, el referencia LFM2 esboza implícitamente cómo será la pila de IA empresarial del mañana: Orquestación híbrida de nubarrón específicodonde los modelos pequeños y rápidos que operan en dispositivos manejan tareas de percepción, formateo, invocación de herramientas y motivo en las que el tiempo es crítico, mientras que los modelos más grandes en la nubarrón ofrecen un razonamiento pesado cuando es necesario.

Aquí convergen varias tendencias:

  • Control de costes. La ejecución específico de inferencias de rutina evita la facturación impredecible en la nubarrón.

  • Determinismo de latencia. TTFT y la estabilidad de la decodificación son importantes en los flujos de trabajo de los agentes; El dispositivo elimina la fluctuación de la red.

  • Gobernanza y cumplimiento. La ejecución específico simplifica el manejo de PII, la residencia de datos y la auditabilidad.

  • Resiliencia. Los sistemas agentes se degradan suavemente si la ruta a la nubarrón deja de estar adecuado.

Es probable que las empresas que adopten estas arquitecturas traten los modelos pequeños en dispositivos como el “plano de control” de los flujos de trabajo agentes, y los modelos grandes en la nubarrón sirvan como aceleradores bajo demanda.

LFM2 es una de las bases de código campechano más claras para esa capa de control hasta la término.

La conclusión estratégica: la IA en el dispositivo es ahora una votación de diseño, no un compromiso

Durante primaveras, las organizaciones que crean funciones de IA han aceptado que la “IA existente” requiere inferencia en la nubarrón. LFM2 desafía esa suposición. Los modelos funcionan de forma competitiva en razonamiento, seguimiento de instrucciones, tareas multilingües y RAG, al mismo tiempo que logran ganancias sustanciales de latencia en comparación con otras familias de modelos pequeños abiertos.

Para los CIO y CTO que están finalizando las hojas de ruta para 2026, la implicación es directa: Los modelos pequeños, abiertos y en el dispositivo ahora son lo suficientemente potentes como para soportar porciones significativas de cargas de trabajo de producción.

LFM2 no reemplazará los modelos de nubarrón de frontera para el razonamiento a escalera de frontera. Pero ofrece poco que las empresas posiblemente necesitan más: una saco reproducible, abierta y operativamente viable para Sistemas agentes que deben ejecutarse en cualquier empleo.desde teléfonos hasta terminales industriales e instalaciones seguras y aisladas.

En el panorama cada vez más amplio de la IA empresarial, LFM2 es menos un hito de investigación y más un signo de convergencia arquitectónica. El futuro no es la nubarrón ni el borde: son uno y otro operando en conjunto. Y lanzamientos como LFM2 proporcionan los pilares para las organizaciones preparadas para construir ese futuro híbrido de forma intencionada y no accidental.

Related Posts

Las noticiero más destacadas de esta semana: MacBook Neo, iPhone 17e y mucho más

Bienvenido a las principales noticiero de la semana de 9to5Mac, donde resumimos las noticiero más importantes del mundo Apple todos los sábados. Esta semana tenemos todos los anuncios de Apple,…

Los científicos intentan vincular las pistolas aparición impresas en 3D con marcas de filamentos específicas mediante huellas dactilares químicas; los principales fabricantes de filamentos suelen ofrecer productos de marca blanca, lo que complica los esfuerzos.

A nuevo estudio de investigadores de la Universidad de Curtin en Australia está explorando la posibilidad de que las “pistolas aparición” impresas en 3D puedan rastrearse mediante investigación químicos. En…

You Missed

Fresco se gradúa como ingeniero de software pese a tener más del 50 % de inmovilidad tras azar

Fresco se gradúa como ingeniero de software pese a tener más del 50 % de inmovilidad tras azar

Las noticiero más destacadas de esta semana: MacBook Neo, iPhone 17e y mucho más

Las noticiero más destacadas de esta semana: MacBook Neo, iPhone 17e y mucho más

Sameji golpea primero y vence 87-84 a Pueblo Nuevo en dramático Ocio 1

Sameji golpea primero y vence 87-84 a Pueblo Nuevo en dramático Ocio 1

Brigadas de la ETED realizarán mantenimiento programado este fin de semana en subestaciones y líneas de transmisión

Brigadas de la ETED realizarán mantenimiento programado este fin de semana en subestaciones y líneas de transmisión

RD avanza en cobertura de lozanía, pero enfrenta grandes retos como la crisis por accidentes de tránsito

RD avanza en cobertura de lozanía, pero enfrenta grandes retos como la crisis por accidentes de tránsito

Vaguada provocará aguaceros y oleaje peligroso; COE emite alerta verde para 8 provincias

Vaguada provocará aguaceros y oleaje peligroso; COE emite alerta verde para 8 provincias