Google bichero Gemini 3.1 Flash Lite a 1/8 del costo de Pro

Google bichero Gemini 3.1 Flash Lite a 1/8 del costo de Pro

El maniquí de IA más nuevo de Google está aquí: Géminis 3.1 Flash-Litey las mayores mejoras esta vez vienen en costo y velocidad, especialmente para empresas y desarrolladores que buscan usar el poderoso razonamiento y las capacidades multimodales del hércules estadounidense de búsqueda y nubarrón.

Al posicionarlo como el maniquí más rentable y con decano capacidad de respuesta de la serie Gemini 3, Google ofrece una opción creada específicamente para inteligencia a escalera.

Este tirada llega pocas semanas luego del inauguración en febrero de su hermano más pesado, Gemini 3.1 Pro, completando una organización escalonada que permite a las empresas esquilar la inteligencia en cada capa de su infraestructura.

Tecnología: optimizada para el "tiempo hasta la primera ficha"

En el mundo de la IA de stop rendimiento, la métrica que a menudo dicta la experiencia del beneficiario no es sólo la precisión: es la latencia. Para soporte al cliente en tiempo positivo, moderación de contenido en vivo o engendramiento instantánea de interfaz de beneficiario, el "tiempo para la primera respuesta token" es el indicador principal de si una aplicación se siente como una aparejo o un compañero de equipo. Si un maniquí tarda incluso dos segundos en comenzar su respuesta, la ilusión de interacción fluida se rompe.

Gemini 3.1 Flash-Lite está diseñado específicamente para esta sensación instantánea. Según puntos de remisión internos y evaluaciones de terceros, Flash-Lite supera a su predecesor, Gemini 2.5 Flash, con un tiempo de extracción del primer token 2,5 veces más rápido. Encima, cuenta con un aumento del 45 por ciento en la velocidad de salida normal: 363 tokens por segundo en comparación con 249.

Esta velocidad se logra gracias a lo que Koray Kavukcuoglu, vicepresidente de investigación de Google DeepMind, describe en una publicación X como una increíble cantidad de ingeniería compleja para hacer que la IA parezca instantánea.

Quizás la incorporación técnica más innovadora sea la presentación de niveles de pensamiento.

Esta característica, estandarizada en las variantes Flash-Lite y Pro, permite a los desarrolladores modular la intensidad del razonamiento del maniquí de forma dinámica. Para una tarea de clasificación simple o un descomposición de sentimiento de gran cuerpo, el maniquí se puede resumir para obtener la máxima velocidad y el minúsculo costo.

Por el contrario, para la exploración de códigos complejos, la engendramiento de paneles o la creación de simulaciones, se puede activar el pensamiento, lo que permite que el maniquí realice un razonamiento y una razonamiento más profundos antiguamente de emitir su primera respuesta.

Producto: evaluación comparativa del bateador pesado de peso presto

Mientras que el "presto" Aunque el sufijo a menudo implica un sacrificio significativo en la capacidad, los datos de rendimiento sugieren un maniquí que penetra correctamente en el zona de sistemas mucho más grandes. Gemini 3.1 Flash-Lite logró una puntuación Elo de 1432 en la tabla de clasificación de Arena.ai, colocándolo en un nivel competitivo con modelos mucho más grandes en número de parámetros.

Los resultados esencia de las pruebas comparativas resaltan sus fortalezas especializadas en diversos dominios cognitivos:

  • Conocimiento investigador: 86,9 por ciento en GPQA Diamond.

  • Comprensión multimodal: 76,8 por ciento en MMMU-Pro.

  • Preguntas y respuestas multilingües: 88,9 por ciento en MMMLU.

  • Conocimiento paramétrico: 43,3 por ciento en SimpleQA Verified.

  • Razonamiento ideal: 16,0 por ciento en el postrer examen de la humanidad (conjunto completo)

El maniquí es particularmente hábil en el cumplimiento de la salida estructurada, un requisito crítico para los desarrolladores empresariales que necesitan IA para originar código JSON, SQL o UI válido que no rompa los sistemas posteriores.

En puntos de remisión como LiveCodeBench, Flash-Lite obtuvo una puntuación del 72,0 por ciento, superando a varios rivales en su categoría de peso, incluido el GPT-5 mini, que obtuvo una puntuación del 80,4 por ciento en un subconjunto diferente pero quedó significativamente rezagado en velocidad y rentabilidad.

Encima, su desempeño en CharXiv Reasoning (73,2 por ciento) y Video-MMMU (84,8 por ciento) demuestra que sus capacidades multimodales son lo suficientemente sólidas para la síntesis de gráficos complejos y la adquisición de conocimientos a partir de video.

La función de inteligencia: Flash-Lite vs. 3.1 Pro

Para comprender el división de Flash-Lite en el mercado, hay que mirarlo inmediato con Gemini 3.1 Pro, que Google lanzó a mediados de febrero de 2026 para retomar la corona de la IA. Mientras que Flash-Lite son los reflejos del sistema Gemini, 3.1 Pro es sin duda el cerebro.

El principal diferenciador es la profundidad del procesamiento cognitivo. Gemini 3.1 Pro fue diseñado para duplicar el rendimiento de razonamiento de la engendramiento mencionado, logrando una puntuación verificada del 77,1 por ciento en ARC-AGI-2, un punto de remisión diseñado para probar la capacidad de un maniquí para resolver patrones lógicos completamente nuevos que no ha antagónico durante el entrenamiento.

Si correctamente Flash-Lite mantiene su conocimiento investigador en un 86,9 por ciento, el maniquí Pro lleva ese margen a un asombroso 94,3 por ciento, lo que lo convierte en la opción superior para investigaciones profundas y síntesis de stop peligro. El enfoque de la aplicación todavía difiere significativamente según estas lagunas de razonamiento.

Gemini 3.1 Pro es capaz de codificar por agitación, generando SVG animados y simulaciones 3D complejas directamente a partir de indicaciones de texto. Por ejemplo, en una demostración, Pro codificó un confuso murmullo de estornino en 3D que los usuarios podían manipular mediante el seguimiento manual. Incluso puede razonar a través de temas literarios abstractos, como traducir el tono atmosférico de Cumbres borrascosas de Emily Brontë en un diseño web práctico.

Gemini 3.1 Flash-Lite, por el contrario, es el heroína de batalla para la ejecución de grandes volúmenes. Maneja millones de tareas diarias (traducción, etiquetado y moderación) que requieren resultados consistentes y repetibles sin la enorme sobrecarga informática de un maniquí con mucho razonamiento.

Llena una estructura alámbrica con cientos de productos al instante u organiza el enrutamiento de intenciones con una precisión del 94 por ciento, según lo informado por los primeros evaluadores.

1/8vo del costo del maniquí insignia Gemini 3.1 Pro (y más de lance que su predecesor, Flash-Lite 2.5)

Para los tomadores de decisiones técnicas empresariales, la parte más convincente de la serie Gemini 3.1 es la relación razonamiento-dólar.

Google ha puesto precio Gemini 3.1 Flash-Lite a $0,25 por 1 millón de tokens de entrada y $1,50 por 1 millón de tokens de salida.

Este precio lo hace significativamente más asequible que competidores como Claude 4.5 Haiku, que tiene un precio de 1 dólar por millón de entradas y 5 dólares por 1 millón de tokens de salida.

Incluso en comparación con Gemini 2.5 Flash, que cuesta 0,30 dólares por millón de entradas, Flash-Lite ofrece una reducción de costos inmediato con ganancias de rendimiento.

En comparación con Gemini 3.1 Pro, que mantiene un precio de 2,00 dólares por millón de tokens de entrada para mensajes de hasta 200.000, la preeminencia estratégica del enfoque de maniquí dual queda clara. En uso de stop contexto (más de 200.000 tokens por interacción), Flash-Lite es en efectividad entre 12 y 16 veces más de lance.

Modificaciónel

Aporte

Producción

Costo total

Fuente

Qwen3 Turbo

$0.05

$0.20

$0.25

Nubarrón de Alibaba

Qwen3.5-Flash

$0.10

$0.40

$0.50

Nubarrón de Alibaba

chat de búsqueda profunda (V3.2-Exp)

$0.28

$0.42

$0.70

búsqueda profunda

razonador de búsqueda profunda (V3.2-Exp)

$0.28

$0.42

$0.70

búsqueda profunda

Grok 4.1 Rápido (razonamiento)

$0.20

$0.50

$0.70

xAI

Grok 4.1 Rápido (sin razonamiento)

$0.20

$0.50

$0.70

xAI

Minimax M2.5

$0.15

$1.20

$1.35

minimax

Géminis 3.1 Flash-Lite

$0.25

$1.50

$1.75

Google

MiniMax M2.5-Exhalación

$0.30

$2.40

$2.70

minimax

Horizonte previa flash de Géminis 3

$0.50

$3.00

$3.50

Google

Kimi-k2.5

$0.60

$3.00

$3.60

Disparo a la retrato

GLM-5

$1.00

$3.20

$4.20

Z.ai

ERNIE 5.0

$0.85

$3.40

$4.25

Baidu

Claude Haiku 4.5

$1.00

$5.00

$6.00

antrópico

Qwen3-Max (23/01/2026)

$1.20

$6.00

$7.20

Nubarrón de Alibaba

Géminis 3 Pro (≤200K)

$2.00

$12.00

$14.00

Google

GPT-5.2

$1.75

$14.00

$15.75

AbiertoAI

Soneto de Claudio 4.5

$3.00

$15.00

$18.00

antrópico

Géminis 3 Pro (>200K)

$4.00

$18.00

$22.00

Google

Cerrar Trabajo 4.6

$5.00

$25.00

$30.00

antrópico

GPT-5.2 Pro

$21.00

$168.00

$189.00

AbiertoAI

Al utilizar una construcción en cascada, una empresa puede utilizar 3.1 Pro para la planificación original compleja, el diseño arquitectónico y la razonamiento profunda, y luego transferir la ejecución repetitiva de incorporación frecuencia a Flash-Lite por una octava parte del costo.

Este cambio efectivamente mueve a la IA de un costoso centro de costos positivo a un expediente de nivel de utilidad que puede ejecutarse en cada archivo de registro, correo electrónico y chat de cliente sin agotar el presupuesto de la nubarrón.

Reacciones de la comunidad y los desarrolladores

Los primeros comentarios de la red de socios de Google sugieren que la serie 3.1 está llenando con éxito un infructifero crítico en el mercado de autonomía confiable.

Andrew Carr, investigador jerarca de Cartwheel, probó uno y otro modelos y observó sus puntos fuertes únicos. Con respecto a 3.1 Pro, destacó su comprensión sustancialmente mejorada de las transformaciones 3D, lo que resolvió errores de larga data en el orden de rotación en los procesos de animación.

Sin secuestro, descubrió que Flash-Lite era un tipo diferente de desbloqueo para el negocio: "3.1 Flash-Lite es un maniquí notablemente competente. Es increíblemente rápido, pero aún así encuentra la modo de seguir todas las instrucciones… La relación inteligencia-velocidad no tiene paralelo en ningún otro maniquí.".

Para las aplicaciones orientadas al consumidor, la depreciación latencia de Flash-Lite ha sido la esencia para la expansión del mercado.

Kolby Nottingham, jerarca de IA en Latitude, compartió que el maniquí logró una tasa de éxito un 20 por ciento decano y tiempos de inferencia un 60 por ciento más rápidos en comparación con su maniquí mencionado, lo que permitió una narración sofisticada a una audiencia mucho más amplia de lo que hubiera sido posible de otra modo.

La confiabilidad en el etiquetado de datos todavía se ha convertido en una característica destacada. Bianca Rangecroft, directora ejecutiva de Whering, informó que al integrar 3.1 Flash-Lite en su proceso de clasificación, lograron una coherencia del 100 por ciento en el etiquetado de artículos, proporcionando una saco enormemente confiable para la asignación de etiquetas y aumentando la confianza en los resultados estructurados.

Kaan Ortabas, cofundador de HubX, señaló que, como motor de orquestación raíz, Flash-Lite entregó finalizaciones en menos de 10 segundos con transmisión casi instantánea y un 97 por ciento de cumplimiento de salida estructurada.

En el costado representativo, Vladislav Tankov, director de IA de JetBrains, notó una mejoría de calidad del 15 por ciento en el maniquí Pro, enfatizando que es más esforzado, más rápido y más apto, y requiere menos tokens de salida para alcanzar sus objetivos.

Licencias y disponibilidad empresarial

Tanto Gemini 3.1 Flash-Lite como Pro se ofrecen a través de Google AI Studio y Vertex AI. Como modelos propietarios, siguen un maniquí comercial habitual de software como servicio en división de una atrevimiento de código despejado.

Actuar a través de Vertex AI proporciona un razonamiento fundamentado adentro de un perímetro seguro, lo que garantiza que las cargas de trabajo de gran cuerpo, como las que ejecuta Databricks para alcanzar los mejores resultados en su clase en el punto de remisión OfficeQA, permanezcan protegidas por garantías de seguridad y residencia de datos de nivel empresarial.

Sin secuestro, todavía están limitados en términos de personalización y requieren conectividad a Internet persistente, a diferencia de rivales de código puramente despejado como la nueva y poderosa serie Qwen3.5 rejonazo por Alibaba en las últimas semanas.

El estado flagrante de perspectiva previa de Flash-Lite permite a Google perfeccionar la seguridad y el rendimiento basándose en los comentarios de los desarrolladores del mundo positivo antiguamente de la disponibilidad normal.

Para los desarrolladores que ya construyen a través de la API de Gemini, la transición a 3.1 Pro y Flash-Lite representa una mejoría directa del rendimiento al mismo precio o a precios más bajos, lo que reduce efectivamente la barrera de entrada para flujos de trabajo agentes complejos.

El veredicto: el nuevo habitual para la IA de servicios públicos

El tirada de Gemini 3.1 Flash-Lite representa la alcoba final de un viraje decisivo para Google. Si correctamente la industria ha estado obsesionada con el razonamiento de última engendramiento para los problemas más complejos, la gran mayoría del trabajo empresarial consiste en tareas de gran cuerpo, repetitivas pero de incorporación precisión.

Al proporcionar tanto el cerebro en Gemini 3.1 Pro como los reflejos en Gemini 3.1 Flash-Lite, Google está indicando que la futuro escalón de la carrera de la IA la ganarán modelos que puedan pensar en un problema, pero todavía ejecutar esa opción a escalera.

Para que el CTO o el líder técnico decida qué maniquí incluir en su hoja de ruta de productos para 2026, la serie Gemini 3.1 ofrece un argumento convincente: ya no es necesario fertilizar un impuesto de razonamiento para obtener resultados confiables e instantáneos. A medida que Flash-Lite se bichero hoy en lectura preliminar, el mensaje a la comunidad de desarrolladores es claro: la barrera a la inteligencia a escalera no sólo se ha estrecho, sino que se ha desmantelado.

Related Posts

Pixel 10a frente a Pixel 10: una pequeña brecha ahora es un quebrada (vídeo)

En abriles pasados, la serie A ha invadido el Pixel central, pero ese no será el caso en 2026. ¿Cómo se compara el Pixel 10a con el Pixel 10? Aquí…

Apple probó si la IA podría mejorar los resultados de búsqueda de la App Store

Los investigadores de Apple realizaron una prueba A/B para cronometrar cómo las etiquetas de relevancia generadas por IA afectarían las clasificaciones de búsqueda de la App Store y las descargas…

Leave a Reply

Your email address will not be published. Required fields are marked *

You Missed

RD entre países que la Interpol intervino por abusos infantiles – Remolacha

RD entre países que la Interpol intervino por abusos infantiles – Remolacha

Pixel 10a frente a Pixel 10: una pequeña brecha ahora es un quebrada (vídeo)

Pixel 10a frente a Pixel 10: una pequeña brecha ahora es un quebrada (vídeo)

Investigación: Pesimismo sobre el rumbo del país, pero optimismo personal

Investigación: Pesimismo sobre el rumbo del país, pero optimismo personal

Apple probó si la IA podría mejorar los resultados de búsqueda de la App Store

Apple probó si la IA podría mejorar los resultados de búsqueda de la App Store

Arabia Saudí reporta interceptación de misil y drones en su región

Arabia Saudí reporta interceptación de misil y drones en su región

La IA crea puestos de trabajo, según muestran los datos de una sondeo bancaria: las empresas con amplias implementaciones e inversiones en IA tienen más probabilidades de contratar que aquellas que no lo hacen

La IA crea puestos de trabajo, según muestran los datos de una sondeo bancaria: las empresas con amplias implementaciones e inversiones en IA tienen más probabilidades de contratar que aquellas que no lo hacen