
Thinking Machines, la startup de IA fundada a principios de este año por el ex CTO de Operai Mira Murati, tiene lanzó su primer producto: Cañíuna API basada en Python diseñada para hacer que el maniquí de jerigonza egregio (LLM) ajuste tanto potente como accesible.
Ahora en el beta privado, Tinker brinda a los desarrolladores e investigadores control directo sobre sus tuberías de entrenamiento mientras descarga el trabajo pesado de la dirección de la infraestructura y el cálculo distribuido.
Como Murati escribió en un Difundir en la red social X: "Tinker trae herramientas fronterizas a los investigadores, ofreciendo abstracciones limpias para escribir experimentos y capacitar tuberías mientras maneja la complejidad de capacitación distribuida. Permite una investigación novedosa, modelos personalizados y líneas de cojín sólidas."
El tiro de Tinker es el primer hito notorio para las máquinas de pensamiento, que planteó $ 2 mil millones A principios de este año de A16Z, Nvidia, Accel y otros.
El objetivo de la compañía es apoyar el avance de IA más libre y personalizable, una ocupación que parece resonar tanto con investigadores e instituciones independientes frustradas por las herramientas opacas en torno a los modelos propietarios de hoy.
Una API de entrenamiento centrada en el desarrollador
Tinker no es otra interfaz de remolcar y soltar o un servicio de ajuste de caja negra. En cambio, ofrece un API de bajo nivel pero liviana de usarbrindando a los investigadores control granular sobre funciones de pérdidas, bucles de capacitación y flujos de trabajo de datos, todo en el código de Python normalizado.
Las cargas de trabajo de capacitación reales se ejecutan en la infraestructura administrada de las máquinas de pensamiento, lo que permite una ejecución de distribución rápida sin ningún de los dolores de comienzo habituales de orquestación GPU.
En esencia, Tinker ofrece:
-
Primitivas nativas de pitón como
forward_backwardysamplepermitiendo a los usuarios crear algoritmos personalizados de ajuste o RL. -
Apoyo para los dos modelos pequeños y grandes de peso libreincluyendo arquitecturas de la mezcla de expertos como Qwen-235B-A22B.
-
Integración con Tuning con sede en Lorapermitiendo que múltiples trabajos de capacitación compartan grupos de cuenta, optimizando la rentabilidad.
-
Una biblioteca complementaria de código libre emplazamiento Texto de cocina de Tinkerque incluye implementaciones de métodos posteriores a la capacitación.
Como estudiante de doctorado en la informática de la Universidad de Berkeley Tyler Griggs escribió en x Luego de probar la API, “muchos servicios de ajuste fino RL están orientados a la empresa y no le permiten reemplazar la deducción de entrenamiento. Con Tinker, puede ignorar el cuenta y simplemente ‘juguetear’ con los envs, algs y datos”.
Casos de uso del mundo actual en todas las instituciones
Antaño de su iniciación notorio, Tinker ya estaba en uso en varios laboratorios de investigación. Los primeros usuarios incluyen equipos de, sí, Berkeley, así como Princeton, Stanford ,, y Redwood Research, cada uno aplicando la API a problemas únicos de capacitación de modelos:
-
Equipo de Goedel de Princeton LLMS ajustados para la prueba del teorema formal. Utilizando Tinker y Lora con solo el 20% de los datos, coincidieron con el rendimiento de los modelos SFT de parámetro completo como Goedel-Prover V2. Su maniquí, entrenado en Tinker, alcanzó 88.1% Pase@32 en el punto de narración MINIF2F y 90.4% con autocorrecciónsuperando modelos cerrados más grandes.
-
Rootskoff Lab en Stanford Usó Tinker para entrenar modelos de razonamiento químico. Con el formación de refuerzo sobre la Pasión 70b, la precisión en la conversión de IUPAC a Formula saltó de 15% a 50%un impulso de los investigadores descritos como anteriormente fuera de resonancia sin un gran apoyo infra.
-
Skyrl en Berkeley Ejecutaron bucles de formación de refuerzo de múltiples agentes personalizados que involucran entrenamiento de poliolicia de async y uso de herramientas múltiples, hechas manejables gracias a la flexibilidad de Tinker.
-
Investigación de Redwood Usó Tinker a RL-Train QWEN3-32B en tareas de control de IA de contexto holgado. El investigador Eric Gan compartió que sin Tinker, probablemente no habría seguido el plan, señalando que resquilar la capacitación en múltiples nodos siempre había sido una barrera.
Estos ejemplos demuestran la versatilidad de Tinker: es compatible con las tuberías de RL de ajuste fino supervisados clásicos y de RL en gran medida experimentales en dominios muy diferentes.
Endosos comunitarios del mundo de la investigación de IA
El anuncio de Tinker provocó reacciones inmediatas de toda la comunidad de investigación de IA.
Ex cofundador de Operai y ex director de Tesla Ai Andrej Karpathy (ahora director de la escuela nativa de AI Eureka Labs) elogió las compensaciones de diseño de Tinker, escribiendo en x: “En comparación con el prototipo más global y existente de ‘Subir sus datos, postiremos su LLM,’ este es, en mi opinión, un empleo más inteligente para achicar la complejidad del post-entrenamiento”.
Agregó que Tinker permite a los usuarios retener ~ 90% del control algorítmico al tiempo que elimina ~ 90% del dolor de infraestructura.
John Schulmanex cofundador de OpenAi y ahora investigador director y un cofundador de máquinas de pensamientodescrito tinker en x como “la infraestructura que siempre he querido," e incluyó una cita atribuida al fallecido filósofo anglosajón y matemático Alfred North Whitehead: "La civilización avanza al extender el número de operaciones importantes que podemos realizar sin pensar en ellas."
Otros notaron cuán limpia era la API de usar y cuán sin problemas manejaba escenarios específicos de RL como inferencia paralela y muestreo de punto de control.
Philipp Moritz y Robert Nishiharacofundadores de AnyScale y creadores del entorno de escalera de aplicaciones AI de código libre ampliamente utilizados Centelladestacó la oportunidad de combinar Tinker con marcos de cuenta distribuidos para una escalera aún longevo.
Próximamente para comenzar el precio de suscripción por uso
Tinker está actualmente apto en beta privadocon un Registro de la inventario de dilación Rajado a desarrolladores y equipos de investigación. Durante la interpretación beta, el uso de la plataforma es de balde. A Maniquí de precios basado en el uso se introducirá en las próximas semanas.
Para las organizaciones interesadas en una integración más profunda o apoyo dedicado, la compañía invita a consultas a través de su sitio web.
Historial sobre máquinas de pensamiento y exodus de OpenAi
Thinking Machines fue fundado por Mira Muratique se desempeñó como CTO de Openai hasta su partida en septiembre de 2024. Su salida siguió a un período de inestabilidad organizacional en OpenAi y marcó una de varias expectativas de investigadores de stop perfil, especialmente en el equipo de superalineación de OpenAi, que desde entonces se ha sido desde entonces disuelto.
Murati anunció la visión de su nueva compañía a principios de 2025, enfatizando tres pilares:
-
Ayudando a la gentío adaptar los sistemas de IA a sus evacuación específicas
-
Edificio Fundamentos fuertes para IA capaz y segura
-
Criado ciencia abierta a través de lanzamientos públicos de modelos, código e investigación
En julio, Murati confirmó que la compañía había recaudado $ 2 mil millonesposicionando las máquinas de pensamiento como una de las nuevas empresas de IA independientes mejor financiadas. Los inversores citaron la experiencia del equipo en avances centrales como ChatGPT, PPO, TRPO, Pytorch y The Operai Gym.
La compañía se distingue al enfocarse en sistemas de IA multimodales que colaboran con los usuarios a través de la comunicación natural, en empleo de apuntar a agentes totalmente autónomos. Sus esfuerzos de infraestructura e investigación tienen como objetivo respaldar modelos adaptables de entrada calidad al tiempo que mantienen rigurosos estándares de seguridad.
Desde entonces, todavía ha publicado varios trabajos de investigación sobre técnicas de código libre que cualquier persona en el formación inevitable y la comunidad de IA pueden usar autónomamente.
Este vehemencia en la tolerancia, la calidad de la infraestructura y el soporte de los investigadores se distingue a las máquinas de pensamiento, incluso cuando el mercado de IA de código libre se ha vuelto intensamente competitivo, con numerosas compañías que presentan modelos poderosos que rivalizan el rendimiento de los laboratorios estadounidenses perfectamente capitalizados como OpenAI, Anthrope, Google, Meta y otros.
A medida que la competencia para el desarrollador Mindshare se calienta, Thinking Machines está señalando que está sagaz para satisfacer la demanda con un producto, claridad técnica y documentación pública.





