Un nuevo estudio muestra por qué los modelos de AI de razonamiento simulado aún no están a la mérito de su facturación

Una captura de pantalla del problema de USAMO 2025 #1 y una solución, que se muestra en el sitio web de Aopsonline.

Una captura de pantalla del problema de USAMO 2025 #1 y una opción, que se muestra en el sitio web de Aopsonline.


Crédito:

Aopsonline


La Olimpíada de Matemáticas de EE. UU. (Usamo) sirve como un calificador para la Olimpíada Internacional de Matemáticas y presenta una mostrador mucho más ingreso que las pruebas como la Examen de matemáticas de invitaciones estadounidenses (Aime). Si acertadamente los problemas de AIME son difíciles, requieren respuestas enteras. Usamo exige que los concursantes escriban pruebas matemáticas completas, obtenidas por la corrección, la integridad y la claridad durante nueve horas y dos días.

Los investigadores evaluaron varios modelos de razonamiento de IA en los seis problemas del USAMO 2025 poco luego de su impulso, minimizando cualquier posibilidad de que los problemas fueran parte de los datos de entrenamiento de los modelos. Estos modelos incluían Qwen’s QWQ-32BDeepseek R1, Gemini 2.0 Flash Thinking (positivo) y Gemini 2.5 Pro de Google, OpenAi’s O1-Pro y O3-Mini-High, el soneto Claude 3.7 de Anthrope con pensamiento extendido, y Xai’s Grok 3.

Una captura de pantalla del 25 de abril de 2025 del sitio web de Matharena de los investigadores que muestra puntajes de precisión para los modelos SR en cada problema en la USAMO.

Una captura de pantalla del 25 de abril de 2025 del sitio web de Matharena de los investigadores que muestra puntajes de precisión para los modelos SR en cada problema en la USAMO.


Crédito:

Matharena


Mientras que un maniquí, Gemini 2.5 Pro de Google, logró un puntaje promedio más detención de 10.1 de 42 puntos (~ 24 por ciento), los resultados mostraron una caída de rendimiento masiva en comparación con los puntos de relato a nivel de AIME. Los otros modelos evaluados se retrasaron considerablemente más a espaldas: Deepseek R1 y Grok 3 promediaron 2.0 puntos cada uno, el pensamiento flash de Google obtuvo 1.8, Claude 3.7 de Anthrope logró 1.5, mientras que QWQ de Qwen y O1-Pro OpenAI promediaron 1.2 puntos. O3-Mini de OpenAI tuvo el puntaje promedio más bajo en solo 0.9 puntos (~ 2.1 por ciento). De casi 200 soluciones generadas en todos los modelos y ejecuciones probados, ni una sola recibió una puntuación perfecta para ningún problema.

Mientras que el recién publicado 03 y O4-Mini-High de Openai no se examinaron para este estudio, los puntos de relato de los investigadores ‘ Matharena El sitio web muestra O3-High anotando 21.73 por ciento en caudillo y O4-Mini-High anotando 19.05 por ciento en caudillo en Usamo. Sin secuestro, esos resultados están potencialmente contaminados porque se midieron luego de que se realizó el concurso, lo que significa que los modelos más nuevos de Operai podrían acaecer incluido las soluciones en los datos de capacitación.

Cómo fallaron los modelos

En el documento, los investigadores identificaron varios patrones esencia de rotura recurrente. Las horizontes de IA contenían brechas lógicas donde faltaba motivo matemática, incluían argumentos basados ​​en supuestos no probados y continuó produciendo enfoques incorrectos a pesar de gestar resultados contradictorios.

Un ejemplo específico involucrado USAMO 2025 Problema 5. Este problema pidió a los modelos que encontraran todos los números enteros positivos “K”, de modo que un cálculo específico que involucra sumas de coeficientes binomiales elevados al poder de “K” siempre daría como resultado un firme, sin importar qué firme positivo “n” se usara. En este problema, el maniquí QWQ de Qwen cometió un error trascendente: excluyó incorrectamente las posibilidades no enteras en una etapa donde la enunciación del problema les permitía. Este error llevó al maniquí a una respuesta final incorrecta a pesar de acaecer identificado correctamente las condiciones necesarias ayer en su proceso de razonamiento.

Related Posts

La secuela espiritual de The Pebble Smartwatch está en camino de mandar en julio

Eric Migicovsky, el creador de Pebble que está reviviendo el temporalizador inteligente de papel electrónico con una nueva compañía convocatoria Core Devices, compartió que los primeros nuevos relojes inteligentes vendrán…

Google prueba las descripciones de audio para consultas de búsqueda

Google Search está experimentando con descripciones de audio para ciertas consultas de búsqueda, la compañía anunciado el viernes. La característica se introdujo por primera vez en NotebookLM, el asistente de…

You Missed

Abel advierte sobre riesgos de “regularización improvisada” de mano de obra extranjera

Abel advierte sobre riesgos de “regularización improvisada” de mano de obra extranjera

El BID alabarda un fondo de US$290 millones para Haití en crisis

El BID alabarda un fondo de US0 millones para Haití en crisis

Encuentran asociación de haitianos indocumentados ocultos en un artesa de guineos

Abel advierte sobre riesgos de “regularización improvisada” de mano de obra extranjera

La secuela espiritual de The Pebble Smartwatch está en camino de mandar en julio

La secuela espiritual de The Pebble Smartwatch está en camino de mandar en julio

¿Puede la examen conectar con el electorado en estas elecciones?

¿Puede la examen conectar con el electorado en estas elecciones?

Interrogan otra vez a exempleado del Jet Set

Interrogan otra vez a exempleado del Jet Set