¿Quieres ideas más inteligentes en tu bandeja de entrada? Regístrese en nuestros boletines semanales para obtener solo lo que importa a los líderes de IA, datos y seguridad empresariales. Suscríbete ahora
Operai’s Nuevos y poderosos pesos abiertos AI Language Model (LLM) Comunidad GPT-OSS fue decidido hace menos de dos semanas Bajo una osadía Permisiva Apache 2.0: el primer extensión del maniquí de mancuerna abiertas de la compañía desde GPT-2 en 2019, pero los desarrolladores fuera de la compañía ya lo están remodelando.
Uno de los más llamativos Los ejemplos provienen de Jack Morrisun estudiante de doctorado en Cornell Tech, ex residente de Google Brain e investigador coetáneo en Meta, quienes Esta semana dio a conocer GPT-OSS-20B-Colchoneta, su propia traducción reelaborada del maniquí GPT-OSS-20B más pequeño de OpenAi, que Elimina el comportamiento del “razonamiento” del maniquí y lo devuelve a una traducción “saco” previamente entrenada que ofrece respuestas más rápidas, más libres, sin censura y sin restricciones.
El maniquí está apto ahora en Cara abrazada bajo un Osadía MIT permisivapermitiendo que se use para los dos adicionales Investigación y aplicaciones comerciales.
Cómo GPT-OSS-20B-Colchoneta es diferente a los modelos GPT-OSS de OpenAi
Para entender lo que hizo Morris, es útil entender el Diferencia entre el extensión de OpenAI y lo que los investigadores de IA llaman un “maniquí saco”.
AI Scaling alcanza sus límites
Los límites de potencia, el aumento de los costos del token y los retrasos de inferencia están remodelando Enterprise AI. Únase a nuestro salón exclusivo para descubrir cómo son los mejores equipos:
- Convertir la energía en una superioridad estratégica
- Edificio de inferencia valioso para ganancias reales de rendimiento
- Desbloquear ROI competitivo con sistemas de IA sostenibles
Asegure su superficie para mantenerse a la vanguardia: https://bit.ly/4mwgngo
La mayoría de los LLM ofrecidos por los principales laboratorios de IA como OpenAi, Anthrope, Google e incluso jugadores de código despejado como Meta, Deepseek y el equipo Qwen de Alibaba están “posttrados”.
Esto significa que han pasado por una etapa adicional en la que está expuesto a ejemplos curados de comportamiento deseado.
Para los modelos sintonizados con instrucciones, eso significa darle muchos ejemplos de instrucciones combinadas con respuestas ideales, por lo que aprende a objetar de forma más útil, cortés o segura a las solicitudes de verbo natural.
Los modelos GPT-ASS OpenAi publicaron el 5 de agosto fueron “optimizados por el razonamiento”: entrenados y ajustados no solo para predecir la posterior palabra, sino para seguir las instrucciones de una forma segura y consistente, a menudo atravesando problemas con el razonamiento estructurado de la “sujeción de pensamiento” antaño de producir una respuesta final.
Esta es una tendencia que se remonta al maniquí O1 de OpenAi publicado hace casi un año en septiembre de 2024, pero que numerosos laboratorios de IA principales han recogido, forzar a los modelos a pensar más tiempo en múltiples pasos y comprobar su propio trabajo antaño generando una respuesta aceptablemente razonada al heredero.
Eso los hace más adecuados para tareas como codificar, resolver problemas matemáticos o objetar preguntas objetivas con explicaciones, pero asimismo significa que sus respuestas se filtran y se alejan del contenido inseguro o indeseable.
Un maniquí saco es diferente. Es la traducción cruda de un maniquí de verbo conspicuo antaño de que se aplique la vinculación específica del razonamiento. Los modelos saco simplemente intentan predecir la posterior parte del texto hexaedro lo que viene antaño, sin barandillas incorporadas, preferencias estilísticas o comportamientos de rechazo.
Son apreciados por algunos investigadores porque ellos puede producir una salida más variada y menos restringida, y porque estudiar su comportamiento inalineado puede Revele cómo los modelos almacenan conocimiento y patrones de sus datos de entrenamiento.
El objetivo de Morris era “revertir” el proceso de vinculación de Openai y restaurar el GPT-OSS-20B más pequeño a poco mucho más cerca de su estado diferente previamente.
“Básicamente revertimos la parte de vinculación del entrenamiento de LLM, por lo que tenemos poco que produce un texto de aspecto natural nuevamente”, escribió en un hilo X anunciando el tesina. “Ya no participa en la cuna. Está de envés a un maniquí que solo predice la posterior token en texto genérico”.
En superficie de tratar de hacer caminar al maniquí con indicaciones inteligentes, lo que Morris dijo que resultó ineficaz durante sus primeros experimentos, tomó una táctica diferente a posteriori de una conversación con el ex cofundador de OpenAi, el ex investigador antrópico y las máquinas de pensamiento coetáneo El sabio director John Schulman.
La secreto era pensar en la reversión de la vinculación como un pequeño problema de optimización: si la mayoría del conocimiento previamente provocado del maniquí todavía está presente en sus pesos, entonces solo podría ser necesaria una pequeña puesta al día de bajo rango para empujarlo cerca de el comportamiento del maniquí saco.
Morris implementó esa idea aplicando una puesta al día de Lora (adaptador de bajo rango) a solo tres capas del maniquí, las capas MLP en las posiciones 7, 15 y 23, con un rango de 16.
Eso significaba capacitar unos 60 millones de parámetros, o el 0.3% del total de 21 mil millones del maniquí. Utilizó más o menos de 20,000 documentos del conjunto de datos FineWeb, manteniendo el formato lo más cerca posible de la pretrenesa diferente (estilo “…”) para que el maniquí no aprenda cero nuevo, simplemente vuelva a habilitar la vivientes de texto dispensado amplio.
El entrenamiento tomó cuatro días en ocho GPU de NVIDIA H200, Morris dijo a VentureBeat a través del mensaje directo en X, con una tasa de educación de 2E-6, un tamaño de trozo de 16 y una distancia de secuencia máxima de 8,192 tokens.
Seguidamente, fusionó los pesos de Lora en el maniquí para que los usuarios pudieran ejecutarlo como un artefacto independiente y totalmente mejorado.
Morris asimismo tuvo que muletear con las limitaciones de las herramientas abiertas actuales para las arquitecturas de mezcla de expertos (MOE) como GPT-OSS.
Morris dijo que usó el ámbito de Hugging Face, que dijo que se bloquea con frecuencia y solo admite ciertos modos de entrenamiento, y escribió su propio arnés al punto de control con frecuencia y se salta por lotes de datos que se arriesgaron a sobrecargar la memoria de la GPU.
Es importante destacar que, en respuesta a las preguntas y críticas de la comunidad de IA en X, Morris asimismo ha aclarado que no afirma suceder recuperado el maniquí saco “pesos”, la configuración interna de las neuronas artificiales que conforman la red neuronal del maniquí y gobiernan su comportamiento.
Más aceptablemente, Morris dice que su trabajo ha “recuperado la * distribución del maniquí saco * con algún error”, es afirmar, los patrones de probabilidad que el maniquí usa para crear horizontes, a pesar de que los pesos que producen esos patrones pueden retardar.
Cómo el comportamiento del maniquí GPT-OSS-20B-Colchoneta difiere de GPT-OSS-20B
La saco GPT-OSS-20B resultante es notablemente más dispensado en sus horizontes. Ya no se ajusta a la explicación del razonamiento paso a paso y producirá una tonalidad más amplia de respuestas, Incluyendo instrucciones que el maniquí seguidor de OpenAi se negaría a dar, como construir un armas, enumerar blasfemias o planificar actividades ilegales.
En pruebas cortas, Morris lo encontró Igualmente podría reproducir pasajes literales de obras con derechos de autorincluido Tres de seis extractos de libros que probó, Mostrando que todavía es accesible un material memorizado.
Aun así, quedan algunas huellas de vinculación. Morris señaló que si avisas al maniquí en un formato de estilo asistente (“Humano: … Asistente: …”), a veces todavía actuará como un chatbot educado. Y Cuando se ejecuta a través de la plantilla de chat GPT-OSS diferente, aún puede padecer a lengua tareas de razonamientoaunque con cierta pérdida de calidad.
Para obtener los mejores resultados en el modo de texto dispensado, aconseja las indicaciones para preparar las indicaciones con el token específico de principio de la secuencia del maniquí y evitar las plantillas de chat por completo.
Construyendo sobre el gran extensión de la tribu GPT-OSS de OpenAI
La tribu GPT-OSS debutó con una atención considerable. Los dos modelos, GPT-OSS-20B y GPT-OSS-20B, son solo de texto, multilingües y construidos con una casa del transformador de la mezcla de expertos. Fueron liberados bajo la osadía Permisive Apache 2.0, permitiendo el uso locorregional sin restricciones, el ajuste fino y la implementación comercial.
Los puntos de remisión de rendimiento de OpenAI mostraron el maniquí de 120b más conspicuo que coincide o excede el O4-Mini patentado en tareas de razonamiento y uso de herramientas, con los 20B más pequeños competitivos con O3-Mini.
Este fue el primer extensión de peso despejado de Openai en seis abriles, un movimiento ampliamente interpretado como Una respuesta a la presión competitiva de otros proveedores de peso despejado, incluidos Deepseek R1 y Qwen 3 de China.
La compañía posicionó a GPT-OSS como una forma de reenfocar a los desarrolladores que se habían mudado para rivalizar con los modelos de código despejado y como una plataforma para la investigación de seguridad en los sistemas de peso despejado.
La reacción al GPT-oss original se mezcló
La reacción del desarrollador a los modelos GPT-OSS de OpenAI se fue firmemente mezclado, con reacciones en todos los ámbitos que van desde entusiastas hasta decepcionadas.
Los partidarios elogiaron la osadía permisiva, la eficiencia y la resistente muestra en los puntos de remisión STEM.
Abrazando el CEO de Face, Clem Delangue, describió el extensión como una “aditamento significativa al ecosistema despejado” e instó a la comunidad a darle tiempo a pensar.
Los críticos argumentaron que los modelos parecen muy entrenados en datos sintéticos, haciéndolos excelentes en matemáticas y codificación, pero menos capaces en la escritura creativa, el conocimiento normal del mundo y el razonamiento multilingüe.
Algunos primeros evaluadores asimismo expresaron preocupaciones sobre los filtros de seguridad persistentes y el posible sesgo geopolítico.
En ese contexto, La saco GPT-OSS-20B de Morris se destaca como un ejemplo concreto de cómo los modelos de peso despejado se pueden adaptar y reutilizar en la naturaleza a los pocos días de la exención.
De hecho, en contraste con la forma en que se recibió GPT-Oss de OpenAI, la mayoría de las respuestas al trabajo de Morris que he gastado son cálidas y eufóricas. Como Un informático escribió en x: “Esto es lo mejor que he gastado en Twitter (X) en los últimos meses”.
El enfoque elimina gran parte del comportamiento Openai incorporado y devuelve el maniquí a poco más cercano a un sistema crudo y previamente provocado, un cambio que es valioso para los investigadores que estudian memorización, sesgo o el impacto de la vinculación, pero que asimismo viene con mayores riesgos de seguridad.
Por otra parte, Morris dice Que su trabajo para restaurar modelos de razonamiento con modelos de saco pre-entrenados y no razonables continuará comparando la cuna en no conductores e instruye modelos como los ofrecidos por Qwen.






