

Como se esperaba, Openai hoy anunciado O3 y O4-Mini, sus últimos modelos de razonamiento que ofrecen resultados de última reproducción (SOTA) en varios puntos de remisión de IA. Por primera vez, estos modelos de razonamiento además pueden entrar a herramientas externas, incluida la navegación web, un intérprete de Python y más.
Operai enfatizó que estos nuevos modelos están capacitados para razonar sobre cuándo y cómo usar herramientas para producir respuestas detalladas en los formatos de salida correctos. Con el razonamiento de vanguardia y el llegada completo a la aparejo, los usuarios pueden esperar mejores respuestas a sus consultas en comparación con cualquier maniquí de Operai precursor.
Operai O3 es el maniquí de razonamiento más poderoso de la compañía, que establece nuevos puntos de remisión de SOTA en CodeForces, SWE-Bench y MMMU. Entregado que admite cargas de imágenes, los usuarios pueden utilizarlo para analizar imágenes, gráficos y gráficos. Según expertos externos, O3 comete un 20% menos errores principales que OpenAI O1 en tareas complejas del mundo efectivo.
Operai O4-Mini es un maniquí más pequeño diseñado para un razonamiento rápido y rentable. A pesar de su tamaño, logra un rendimiento comparable a O3 en matemáticas, codificación y tareas visuales. Por ejemplo, en AIME 2025, O4-Mini obtuvo un 99.5% cuando se combinó con un intérprete de Python. Conveniente a que es más valioso que el O3, los usuarios pueden esperar límites de uso significativamente más altos, lo que lo hace ideal para tareas de razonamiento de stop barriguita.
Operai afirma que estos dos nuevos modelos deberían sentirse más naturales y conversacionales, ya que pueden hacer remisión a la memoria y las conversaciones pasadas. Bajo el capó, OpenAI utilizó el formación de refuerzo a gran escalera para mejorar el rendimiento y capacitó a los dos modelos para usar herramientas a través del formación de refuerzo además.
En términos de eficiencia, para la mayoría de los casos de uso del mundo efectivo, los nuevos modelos O3 y O4-Mini serán más inteligentes y más rentables que O1 y O3-Mini, respectivamente. En términos de seguridad, Openai informa que tanto O3 como O4-Mini permanecen por debajo del principio “stop” en las tres categorías de su ámbito de seguridad.
Conexo con estos modelos, Operai además anunció un nuevo tentativa llamado Codex CLI, un agente de codificación veloz para que los desarrolladores los usen directamente desde sus PC. Adicionalmente, la compañía está lanzando una iniciativa de $ 1 millón para apoyar proyectos que aprovechan los modelos Codex CLI y OpenAI.
Los nuevos modelos O4-Mini, O4-Mini-High y O3 ahora están disponibles para los usuarios de ChatGPT Plus, Pro y Teams a través del selector de modelos. Estos modelos reemplazan O1, O3-Mini y O3-Mini-High. Los usuarios de ChatGPT Enterprise y EDU obtendrán llegada la próxima semana. Los usuarios gratuitos de ChatGPT pueden probar O4-Mini seleccionando “Piense” en el compositor de texto. Operai planea exhalar Openai O3-Pro en unas pocas semanas, con soporte de herramientas completo.
El maniquí O3 tiene un precio de $ 10 por millón de tokens de entrada y $ 40 por millón de tokens de salida. El maniquí O4-Mini mantiene el mismo precio que O3-Mini: $ 1.10 por millón de tokens de entrada y $ 4.40 por millón de tokens de salida.
Los desarrolladores ahora pueden entrar a estos nuevos modelos a través de la API de finalización de chat y la API de respuestas. La API de las respuestas ahora admite resúmenes de razonamiento y la capacidad de preservar los tokens de razonamiento en torno a la función requiere un mejor rendimiento. Pronto, OpenAI agregará soporte para herramientas de primera parte como búsqueda web, búsqueda de archivos y el intérprete de código internamente del proceso de razonamiento del maniquí.