OpenAI está acelerando secretamente ‘Garlic’ para corregir los mayores defectos de ChatGPT: lo que sabemos

Ilustración de ajo

Taller de fotografía Getty Images/Lazarevic

Siga ZDNET: Agréganos como fuente preferida en Google.


Conclusiones esencia de ZDNET

  • OpenAI sintió la presión de los lanzamientos recientes de OpenAI y Anthropic.
  • Según se informa, el director ejecutante Sam Altman ha iniciado un “código rojo”.
  • Como resultado, OpenAI está trabajando en un nuevo maniquí “Ajo”.

Tras el dispersión de Gemini 3 por parte de Google, que rápidamente alcanzó la cima de la clasificación de IA de LMArenaSam Altman, director ejecutante de OpenAI, informó a los empleados que declaraba un “código rojo”. El objetivo era mejorar aún más ChatGPT para competir mejor, según un noticia de La información. Ahora, un seguimiento noticia De la publicación se revela que la empresa está desarrollando un nuevo maniquí en respuesta, cuyo nombre en código es Garlic.

(Divulgación: Ziff Davis, la empresa matriz de ZDNET, presentó una demanda en abril de 2025 contra OpenAI, alegando que infringió los derechos de autor de Ziff Davis al entrenar y proceder sus sistemas de IA).

Encima: ¿Es el nuevo maniquí de DeepSeek el postrero codazo a la IA propietaria?

El director de investigación de OpenAI, Mark Chen, informó a sus colegas que Garlic se ha desempeñado acertadamente en las evaluaciones de la empresa en comparación con Gemini 3 y Opus 4.5 de Anthropic en tareas que involucran codificación y razonamiento, según el noticia. Esto es importante porque tanto Gemini 3 como Anthropic Opus 4.5, lanzados el mes pasado, establecen nuevos estándares de la industria, siendo el primero líder en razonamiento y el segundo líder en codificación.

OpenAI no respondió de inmediato a una solicitud de comentarios.

Chen igualmente agregó que al desarrollar Garlic, OpenAI abordó problemas con el preentrenamiento, la grado auténtico de entrenamiento en la que el maniquí comienza a formarse de un conjunto de datos masivo. La empresa centró el maniquí en conexiones más amplias antaño de entrenarlo para tareas más específicas. Estos cambios en el entrenamiento previo permiten a OpenAI infundir a un maniquí más pequeño la misma cantidad de conocimiento previamente reservado para modelos más grandes, según los comentarios de Chen citados en el noticia.

Los modelos más pequeños pueden ser beneficiosos para los desarrolladores, ya que suelen ser más baratos y más fáciles de implementar, poco que el laboratorio francés de IA Mistral enfatizó en su postrero dispersión esta semana. Para la empresa que lo respalda, un maniquí más pequeño es más despreciado de construir e implementar. El ajo no debe confundirse con Shallotpeat, un maniquí que Altman anunció a su personal en octubre, según un noticia susodicho. noticiaigualmente de The Information, que igualmente tenía como objetivo corregir errores en el proceso de preentrenamiento.

Encima: Amazon dice que los nuevos agentes de DevOps no necesitan que los cuiden; puedes probarlos aquí

En cuanto a cuándo esperar el maniquí, Chen mantuvo los detalles vagos y dijo sólo “tan pronto como sea posible” en el noticia. Sin requisa, entregado el contexto y la urgente exigencia de OpenAI de mantenerse a la vanguardia, sería seguro hacerse cargo que el maniquí podría lanzarse a principios del próximo año. Los avances realizados durante la creación de Garlic ya han permitido a la empresa avanzar con destino a el crecimiento de su próximo maniquí mejor y más ínclito, afirmó Chen.

Una batalla por los usuarios

Esta feroz carrera entre Google y OpenAI se puede atribuir en parte a que uno y otro compiten por el mismo sector: los consumidores.

Como señaló el director ejecutante de Anthropic, Dario Amodei, en una conversación con Andrew Ross Sorkin durante Los New York Times‘ DealBook Summit el miércoles, Anthropic no está en la misma carrera ni enfrenta un pánico de “código rojo” que sus competidores, porque se centra en servir a las empresas en punto de a los consumidores. La compañía acaba de anunciar que su útil de codificación agente Claude Code alcanzó mil millones de dólares en ingresos por ejecución, solo seis meses luego de estar acondicionado para el conocido.


Related Posts

Windows 11 finalmente tiene una modo realizable de entrar al modo equívoco y una alternativa para esos ‘flashbangs’ que todavía afectan al Explorador de archivos

Windows 11 obtiene una nueva forma más conveniente de habilitar el modo equívoco Microsoft asimismo está implementando una alternativa para algunos errores restantes del Explorador de archivos. — destellos blancos…

Kit de herramientas de primavera de 2026 de Fanttik: – Tendencias digitales

Un cantera compacto para sus sueños de bricolaje en parking, parterre y muebles y escritorios Si los planes de su hogar alguna vez se han trillado estancados por herramientas voluminosas…

You Missed

Operativos conjuntos en Baní dejan siete detenidos, ocupación de drogas, balanzas y máquinas tragamonedas

Operativos conjuntos en Baní dejan siete detenidos, ocupación de drogas, balanzas y máquinas tragamonedas

Moda Jumbo y Sócrates McKinney presentan colección “Pez Papagayo” con mensaje de conciencia ambiental

Moda Jumbo y Sócrates McKinney presentan colección “Pez Papagayo” con mensaje de conciencia ambiental

Tarea reconoce liderazgo de mujeres

Tarea reconoce liderazgo de mujeres

Memorándum Doméstico de Políticas Públicas

Memorándum Doméstico de Políticas Públicas

a qué hora y dónde ver el tercer colección del Clásico Mundial

a qué hora y dónde ver el tercer colección del Clásico Mundial

Windows 11 finalmente tiene una modo realizable de entrar al modo equívoco y una alternativa para esos ‘flashbangs’ que todavía afectan al Explorador de archivos

Windows 11 finalmente tiene una modo realizable de entrar al modo equívoco y una alternativa para esos ‘flashbangs’ que todavía afectan al Explorador de archivos