
Startup china de IA minimaxcon sede en Shanghai, ha causado conmoción en la industria de la IA hoy con el impulso de su nuevo Maniquí de jerigonza M2.5 en dos variantes, lo que promete hacer que la inteligencia industrial de ingreso matiz sea tan trueque que podrías dejar de preocuparte por la elaboración por completo.
Igualmente se dice que es "fuente abierta," aunque los pesos (configuraciones) y el código aún no se han publicado, ni siquiera el tipo o los términos exactos de la deshonestidad. Pero eso casi no viene al caso cedido lo asequible que MiniMax lo ofrece a través de su API y las de sus socios.
Durante los últimos primaveras, utilizar la IA más poderosa del mundo era como contratar a un consejero costoso: era brillante, pero vigilabas el cronómetro (y el conteo de tokens) constantemente. M2.5 cambia esa matemática, reduciendo el costo de la frontera hasta en un 95%.
Al ofrecer un rendimiento que rivaliza con los modelos de primer nivel de Google y Anthropic a una fracción del costo, particularmente en el uso de herramientas de agente para tareas empresariales, incluyendo crear archivos de Microsoft Word, Excel y PowerPointMiniMax envite a que el futuro no se proxenetismo sólo de lo inteligente que sea un maniquí, sino de la frecuencia con la que puedas permitirte utilizarlo.
De hecho, con este fin, MiniMax dice que funcionó. "con profesionales de parada nivel en campos como finanzas, derecho y ciencias sociales" para asegurar que el maniquí pueda realizar un trabajo auténtico de acuerdo con sus especificaciones y estándares.
Este impulso es importante porque señala un cambio de la IA como "chatbot" a la IA como "operario". Cuando la inteligencia se vuelve "demasiado asequible para calcular," los desarrolladores dejan de crear herramientas simples de preguntas y respuestas y comienzan a crear "agentes"—software que puede tener lugar horas codificando, investigando y organizando proyectos complejos de forma autónoma sin comprar mucho peculio.
De hecho, MiniMax ya ha implementado este maniquí en sus propias operaciones. Actualmente, El 30% de todas las tareas en MiniMax HQ se completan con M2.5y una asombrosa ¡El 80% de su código recién confirmado es generado por M2.5!
Como escribe el equipo de MiniMax en la publicación de su blog de impulso, "Creemos que M2.5 ofrece posibilidades prácticamente ilimitadas para el mejora y operación de los agentes de la crematística."
Tecnología: escasez de energía y el avance de CISPO
El secreto de la eficiencia del M2.5 reside en su edificación de Mezcla de Expertos (MoE). En oficio de ejecutar todos sus 230 mil millones de parámetros para cada palabra que genera, el maniquí solo "activa" 10 mil millones. Esto le permite suministrar la profundidad de razonamiento de un maniquí masivo mientras se mueve con la agilidad de uno mucho más pequeño.
Para entrenar este enredado sistema, MiniMax desarrolló un situación patentado de enseñanza por refuerzo (RL) llamado Forge. ingeniero minimax Canción de oliva indicado en el Podcast del jueves AI en YouTube que esta técnica fue fundamental para prosperar el rendimiento incluso usando una cantidad relativamente pequeña de parámetros, y que el maniquí fue entrenado durante un período de dos meses.
Forge está diseñado para ayudar al maniquí a asimilar de "entornos del mundo auténtico" Básicamente, permitir que la IA practique la codificación y el uso de herramientas en miles de espacios de trabajo simulados.
"Lo que nos dimos cuenta es que hay mucho potencial con un maniquí pequeño como este si entrenamos el enseñanza por refuerzo con una gran cantidad de entornos y agentes." Dijo la canción. "Pero no es poco muy obvio de hacer," agregando que eso fue lo que gastaron "mucho tiempo" en.
Para suministrar estable el maniquí durante este intenso entrenamiento, utilizaron un enfoque matemático llamado CISPO (Optimización de la política de muestreo de importancia de retazo) y compartieron la fórmula en su blog.
Esta fórmula garantiza que el maniquí no corrija excesivamente durante el entrenamiento, lo que le permite desarrollar lo que MiniMax flama un "Mentalidad de arquitecto". En oficio de saltar directamente a escribir código, M2.5 ha aprendido a planificar primero de forma proactiva la estructura, las características y la interfaz de un esquema.
Puntos de remisión de última gestación (y cercanos)
Los resultados de esta edificación se reflejan en las últimas tablas de clasificación de la industria. M2.5 no sólo ha mejorado; ha saltado al nivel superior de modelos de codificación, acercándose al postrer maniquí de Anthropic, Claude Opus 4.6, enérgico hace tan pronto como una semana, y mostrando que las empresas chinas están ahora a solo unos días de alcanzar a los laboratorios estadounidenses con muchos mejores fortuna (en términos de GPU).
Éstos son algunos de los aspectos más destacados del nuevo punto de remisión MiniMax M2.5:
-
SWE-Bench verificado: 80,2% — Coincide con las velocidades de Claude Opus 4.6
-
NavegarComp: 76,3 %: búsqueda y uso de herramientas líderes en la industria.
-
Parcialidad Multi-SWE: 51,3%: SOTA en codificación multilingüe
-
BFCL (llamamiento de herramientas): 76,8 %: flujos de trabajo agentes de ingreso precisión.
En el podcast de ThursdAI, el presentador Alex Volkov señaló que MiniMax M2.5 funciona extremadamente rápido y, por lo tanto, utiliza menos tokens para completar las tareas, del orden de $0,15 por tarea en comparación con $3,00 para Claude Opus 4.6.
Rompiendo la barrera de los costos
MiniMax ofrece dos versiones del maniquí a través de su API, ambas enfocadas al uso de producción de parada grosor:
-
M2.5-Relámpago: Optimizado para la velocidad, entregando 100 tokens por segundo. Cuesta $0,30 por 1 millón de tokens de entrada y $2,40 por 1 millón de tokens de salida.
-
Estereotipado M2.5: Optimizado para costos, funcionando a 50 tokens por segundo. Cuesta la parte que la traducción Lightning ($0,15 por 1 millón de tokens de entrada / $1,20 por 1 millón de tokens de salida).
En jerigonza sencillo: MiniMax afirma que puedes ejecutar cuatro "agentes" (trabajadores de IA) de forma continua durante un año firme por aproximadamente 10.000 dólares.
Para los usuarios empresariales, este precio es aproximadamente entre 1/10 y 1/20 del costo de los modelos propietarios de la competencia como GPT-5 o Claude 4.6 Opus.
|
Maniquí |
Aporte |
Producción |
Costo total |
Fuente |
|
Qwen3 Turbo |
$0.05 |
$0.20 |
$0.25 |
|
|
chat de búsqueda profunda (V3.2-Exp) |
$0.28 |
$0.42 |
$0.70 |
|
|
razonador de búsqueda profunda (V3.2-Exp) |
$0.28 |
$0.42 |
$0.70 |
|
|
Grok 4.1 Rápido (razonamiento) |
$0.20 |
$0.50 |
$0.70 |
|
|
Grok 4.1 Rápido (sin razonamiento) |
$0.20 |
$0.50 |
$0.70 |
|
|
Minimax M2.5 |
$0.15 |
$1.20 |
$1.35 |
|
|
MiniMax M2.5-Chispa |
$0.30 |
$2.40 |
$2.70 |
|
|
Presencia previa flash de Géminis 3 |
$0.50 |
$3.00 |
$3.50 |
|
|
Kimi-k2.5 |
$0.60 |
$3.00 |
$3.60 |
|
|
GLM-5 |
$1.00 |
$3.20 |
$4.20 |
|
|
ERNIE 5.0 |
$0.85 |
$3.40 |
$4.25 |
|
|
Claude Haiku 4.5 |
$1.00 |
$5.00 |
$6.00 |
|
|
Qwen3-Max (23/01/2026) |
$1.20 |
$6.00 |
$7.20 |
|
|
Géminis 3 Pro (≤200K) |
$2.00 |
$12.00 |
$14.00 |
|
|
GPT-5.2 |
$1.75 |
$14.00 |
$15.75 |
|
|
Soneto de Claudio 4.5 |
$3.00 |
$15.00 |
$18.00 |
|
|
Géminis 3 Pro (>200K) |
$4.00 |
$18.00 |
$22.00 |
|
|
Cerrar Trabajo 4.6 |
$5.00 |
$25.00 |
$30.00 |
|
|
GPT-5.2 Pro |
$21.00 |
$168.00 |
$189.00 |
Implicaciones estratégicas para empresas y líderes
Para los líderes técnicos, M2.5 representa más que una simple API más económica. Cambia el manual activo para las empresas en este momento.
La presión para "optimizar" Las indicaciones para librarse peculio han desaparecido. Ahora puede implementar modelos de parada contexto y parada razonamiento para tareas rutinarias que antaño tenían un costo prohibitivo.
La mejoramiento de la velocidad del 37% en la finalización de tareas de un extremo a otro significa que "agente" Los canales valorados por los orquestadores de IA, donde los modelos hablan con otros modelos, finalmente se mueven lo suficientemente rápido para las aplicaciones de sucesor en tiempo auténtico.
Adicionalmente, las altas puntuaciones de M2.5 en modelos financieros (74,4% en MEWC) sugieren que puede manejar las "conocimiento tácito" de industrias especializadas como el derecho y las finanzas con una supervisión mínima.
Conveniente a que M2.5 se posiciona como un maniquí de código hendido, las organizaciones pueden potencialmente ejecutar auditorías de código intensivas y automatizadas a una escalera que antaño era irrealizable sin una intervención humana masiva, al mismo tiempo que mantienen un mejor control sobre la privacidad de los datos, pero hasta que se publiquen los términos y pesos de la deshonestidad, esto sigue siendo solo un apodo.
MiniMax M2.5 es una señal de que la frontera de la IA ya no se proxenetismo solo de quién puede construir el cerebro más conspicuo, sino de quién puede convertir ese cerebro en el trabajador más útil y asequible de la sala.






