Un maestro desconocido cita un crónica de TechCrunch: Durante el fin de semana, Neel Somani, ingeniero de software, ex investigador cuantitativo y fundador de una startup, estaba probando las habilidades matemáticas del nuevo maniquí de OpenAI cuando hizo un descubrimiento inesperado. Posteriormente de pegar el problema en ChatGPT y dejarlo pensar durante 15 minutos, encontró una decisión completa. Evaluó la prueba y la formalizó con una utensilio emplazamiento Harmonic, pero todo salió proporcionadamente. “Tenía curiosidad por establecer una cuerda de cojín para conocer cuándo los LLM son efectivamente capaces de resolver problemas matemáticos abiertos en comparación con aquellos en los que tienen dificultades”, dijo Somani. La sorpresa fue que, utilizando el extremo maniquí, la frontera empezó a avanzar un poco.
ChatGPT esclavitud de pensamiento es aún más impresionante, al pronunciar axiomas matemáticos como La fórmula de Legendre., El postulado de Bertrandy el Teorum de la sino de David. Finalmente, el maniquí encontró una Publicación de desbordamiento de matemáticas de 2013, donde el matemático de Harvard Noam Elkies había regalado una decisión elegante a un problema similar. Pero la prueba final de ChatGPT difería del trabajo de Elkies en aspectos importantes y proporcionó una decisión más completa a una traducción del problema planteado por el inverosímil matemático Paul Erdos, cuya vasta colección de problemas sin resolver se ha convertido en un campo de pruebas para la IA.
Para cualquiera que sea escéptico sobre la inteligencia industrial, es un resultado sorprendente… y no es el único. Las herramientas de IA se han vuelto omnipresentes en matemáticas, desde LLM orientados a la formalización como Aristóteles de Harmonic hasta herramientas de revisión de humanidades como la investigación profunda de OpenAI. Pero desde el tiro de GPT 5.2, que Somani describe como “anecdóticamente más hábil en razonamiento matemático que iteraciones anteriores”, el gran grosor de problemas resueltos se ha vuelto difícil de ignorar, lo que plantea nuevas preguntas sobre la capacidad de los grandes modelos de habla para ampliar las fronteras del conocimiento humano. Somani examinó el archivo en cuerda de más de 1.000 conjeturas de Erdos. Desde Navidad, 15 problemas de Erdos han pasado de “abiertos” a “resueltos”, y 11 soluciones atribuyen explícitamente la décimo de la IA.
En GitHub, el matemático Terence Tao identifica ocho problemas de Erdos en los que la IA logró un progreso autónomo significativo y seis más en los que avanzó en el trabajo al encontrar y ampliar investigaciones previas, señalando en colosal que la escalabilidad de la IA la hace muy adecuada para tocar la larga culo de oscuros y a menudo sencillos problemas de Erdos.
El progreso todavía se está acelerando por un impulso alrededor de la formalización, respaldado por herramientas como el “asistente de prueba” de código libre Lean y sistemas de inteligencia industrial más nuevos como el Aristóteles de Harmonic.





