Un truco de ‘código de temblor’ de fin de semana realizado por Andrej Karpathy esboza silenciosamente la capa que equivocación en la orquestación de la IA empresarial

Un truco de ‘código de temblor’ de fin de semana realizado por Andrej Karpathy esboza silenciosamente la capa que equivocación en la orquestación de la IA empresarial

Este fin de semana, Andrej Karpathyexdirector de IA de Tesla y miembro fundador de OpenAI, decidió que quería ojear un tomo. Pero no quería leerlo solo. Quería leerlo acompañado de un comité de inteligencias artificiales, cada uno ofreciendo su propia perspectiva, criticando a los demás y, finalmente, sintetizando una respuesta final bajo la callejero de un "Presidente."

Para que esto sucediera, Karpathy escribió lo que llamó un "plan de código de hábitat" – un software escrito rápidamente, en gran parte por asistentes de inteligencia industrial, destinado a divertirse más que a funcionar. Publicó el resultado, un repositorio llamado "Consejo LLM," a GitHub con un claro descargo de responsabilidad: "No voy a apoyarlo de ninguna modo… El código es efímero ahora y las bibliotecas se acabaron."

Sin requisa, para los tomadores de decisiones técnicas en todo el panorama empresarial, mirar más allá del descargo de responsabilidad casual revela poco mucho más significativo que un cacharro de fin de semana. En unos cientos de líneas de Pitón y javascriptKarpathy ha esbozado una bloque de narración para la capa más crítica e indefinida de la pila de software moderna: el middleware de orquestación que se encuentra entre las aplicaciones corporativas y el volátil mercado de los modelos de IA.

A medida que las empresas finalicen sus inversiones en plataformas para 2026, Consejo LLM ofrece una vistazo simplificada a la "construir frente a comprar" efectividad de la infraestructura de IA. Demuestra que, si proporcionadamente la método de enrutar y asociar modelos de IA es sorprendentemente simple, la verdadera complejidad reside en el envoltorio activo necesario para prepararlo para la empresa.

Cómo funciona el LLM Council: cuatro modelos de IA debaten, critican y sintetizan respuestas

Para el observador casual, el Consejo LLM La aplicación web parece casi idéntica a ChatGPT. Un legatario escribe una consulta en un cuadro de chat. Pero detrás de secuencia, la aplicación desencadena un sofisticado flujo de trabajo de tres etapas que refleja cómo operan los órganos humanos de toma de decisiones.

Primero, el sistema envía la consulta del legatario a un panel de modelos de frontera. En la configuración predeterminada de Karpathy, esto incluye OpenAI GPT-5.1Google Géminis 3.0 Proantrópico Soneto de Claudio 4.5y xAI Grok 4. Estos modelos generan sus respuestas iniciales en paralelo.

En la segunda etapa, el software realiza una revisión por pares. Cada maniquí recibe las respuestas anónimas de sus contrapartes y se le pide que las evalúe en función de su precisión y conocimiento. Este paso transforma la IA de un productor a un crítico, lo que impone una capa de control de calidad que es poco popular en las interacciones tipificado de chatbot.

Finalmente, un designado "Presidente LLM" (actualmente configurado como Gemini 3 de Google) recibe la consulta flamante, las respuestas individuales y las clasificaciones de los pares. Sintetiza esta masa de contexto en una respuesta única y autorizada para el legatario.

Karpathy señaló que los resultados eran a menudo sorprendentes. "Muy a menudo, los modelos están sorprendentemente dispuestos a aspirar la respuesta de otro LLM como superior a la suya propia," escribió en X (anteriormente Twitter). Describió el uso de la utensilio para ojear capítulos de libros y observó que los modelos elogiaron constantemente a GPT-5.1 como el más revelador, mientras que calificaron a Claude como el más bajo. Sin requisa, la propia evaluación cualitativa de Karpathy divergió de la de su consejo digital; encontró GPT-5.1 "demasiado prolijo" y prefirió el "condensado y procesado" salida de Géminis.

FastAPI, OpenRouter y los argumentos a distinción de tratar los modelos de frontera como componentes intercambiables

Para los CTO y arquitectos de plataformas, el valencia de Consejo LLM No reside en su crítica literaria, sino en su construcción. El repositorio sirve como documento principal que muestra exactamente cómo será una pila de IA mínima y moderna a finales de 2025.

La aplicación está construida sobre una "delgado" bloque. El backend usa API rápidaun nuevo Pitón framework, mientras que el frontend es un tipificado Reaccionar aplicación construida con Rápidamente. El almacenamiento de datos no se realiza mediante una almohadilla de datos compleja, sino mediante simples Archivos JSON escrito en el disco particular.

El eje de toda la operación es enrutador rajadoun agregador de API que normaliza las diferencias entre varios proveedores de modelos. Al enrutar las solicitudes a través de este único intermediario, Karpathy evitó escribir un código de integración separado para AbiertoAI, Googley antrópico. La aplicación no sabe ni le importa qué empresa proporciona la inteligencia; simplemente envía un mensaje y calma una respuesta.

Esta votación de diseño destaca una tendencia creciente en la bloque empresarial: la mercantilización de la capa de maniquí. Al tratar los modelos de frontera como componentes intercambiables que se pueden canjear editando una sola término en un archivo de configuración (específicamente la serie COUNCIL_MODELS en el código backend), la bloque protege la aplicación del separación del proveedor. Si un nuevo maniquí de Meta o Mistral encabeza las tablas de clasificación la próxima semana, se puede asociar al consejo en segundos.

Lo que equivocación desde el prototipo hasta la producción: autenticación, redacción de PII y cumplimiento

Si proporcionadamente la método central de Consejo LLM es elegante, asimismo sirve como un claro ejemplo de la brecha entre una "truco de fin de semana" y un sistema de producción. Para un equipo de plataforma empresarial, clonar el repositorio de Karpathy es simplemente el primer paso de un maratón.

Una auditoría técnica del código revela lo que equivocación "harto" infraestructura que los proveedores comerciales venden a precios superiores. El sistema carece de autenticación; cualquier persona con acercamiento a la interfaz web puede consultar los modelos. No existe el concepto de roles de legatario, lo que significa que un desarrollador junior tiene los mismos derechos de acercamiento que el CIO.

Adicionalmente, la capa de gobernanza es inexistente. En un entorno corporativo, el emisión de datos a cuatro proveedores externos de IA diferentes simultáneamente genera preocupaciones inmediatas de cumplimiento. Aquí no existe ningún mecanismo para redactar información de identificación personal (PII) ayer de que abandone la red particular, ni siquiera existe un registro de auditoría para rastrear quién preguntó qué.

La confiabilidad es otra cuestión abierta. El sistema asume la API de enrutador rajado siempre está activo y que los modelos responderán de modo oportuna. Carece de disyuntores, estrategias de respaldo y método de reintento que mantienen en funcionamiento las aplicaciones críticas para el negocio cuando un proveedor sufre una interrupción.

Estas ausencias no son fallas en el código de Karpathy (declaró explícitamente que no tiene la intención de apoyar ni mejorar el plan), pero definen la propuesta de valencia para el mercado comercial de infraestructura de IA.

Empresas como LangChain, Almohadilla de AWSy varias nuevas empresas de puertas de enlace de IA están esencialmente vendiendo el "endurecimiento" en torno a la método central que demostró Karpathy. Proporcionan los envoltorios de seguridad, observabilidad y cumplimiento que convierten un script de orquestación sin formato en una plataforma empresarial viable.

Por qué Karpathy cree que el código es ahora "efímero" y las bibliotecas de software tradicionales están obsoletas

Quizás el aspecto más provocativo del plan sea la filosofía bajo la cual fue construido. Karpathy describió el proceso de progreso como "99% codificado por vibraciones," lo que implica que dependió en gran medida de asistentes de inteligencia industrial para crear el código en ocupación de escribirlo él mismo término por término.

"El código es efímero ahora y las bibliotecas se acabaron, pídale a su LLM que lo cambie de la forma que desee." escribió en la documentación del repositorio.

Esta proclamación marca un cambio radical en la capacidad de ingeniería de software. Tradicionalmente, las empresas crean bibliotecas internas y abstracciones para diligenciar la complejidad y las mantienen durante abriles. Karpathy sugiere un futuro en el que el código se trate como "andamio rápido" – desechable, fácilmente reescrito por IA y no destinado a durar.

Para los responsables de la toma de decisiones empresariales, esto plantea una cuestión estratégica difícil. Si las herramientas internas pueden ser "vibra codificada" en un fin de semana, ¿tiene sentido comprar paquetes de software rígidos y caros para los flujos de trabajo internos? ¿O deberían los equipos de plataformas capacitar a sus ingenieros para crear herramientas personalizadas y desechables que se ajusten exactamente a sus micción por una fracción del costo?

Cuando los modelos de IA juzgan la IA: la peligrosa brecha entre las preferencias de las máquinas y las micción humanas

Más allá de la bloque, la Consejo LLM El plan, sin darse cuenta, arroja luz sobre un peligro específico en la implementación automatizada de IA: la desajuste entre el razón humano y el de la máquina.

La observación de Karpathy de que sus modelos preferían GPT-5.1, mientras que él prefería Gemini, sugiere que los modelos de IA pueden tener sesgos compartidos. Podrían bonificar la verbosidad, el formato específico o la confianza retórica que no necesariamente se alinea con las micción empresariales humanas de brevedad y precisión.

A medida que las empresas dependen cada vez más de "LLM como sentenciador" sistemas para evaluar la calidad de sus bots de cara al cliente, esta discrepancia es importante. Si el evaluador automatizado premio constantemente "prolijo y extendido" Mientras que los clientes humanos quieren soluciones concisas, las métricas mostrarán el éxito mientras la satisfacción del cliente cae en picado. El examen de Karpathy sugiere que obedecer solamente de la IA para etiquetar la IA es una táctica plagada de problemas de afiliación ocultos.

Qué pueden cultivarse los equipos de plataformas empresariales de un truco de fin de semana ayer de construir su pila para 2026

Al final, Consejo LLM Actúa como una prueba de Rorschach para la industria de la IA. Para el simpatizante, es una forma divertida de ojear libros. Para el proveedor, es una amenaza, lo que demuestra que la funcionalidad principal de sus productos se puede replicar en unos pocos cientos de líneas de código.

Pero para el líder tecnológico empresarial, es una bloque de narración. Desmitifica la capa de orquestación, mostrando que el desafío técnico no está en enrutar las indicaciones, sino en regentar los datos.

A medida que los equipos de plataformas se acerquen al año 2026, es probable que muchos se encuentren mirando el código de Karpathy, no para implementarlo, sino para comprenderlo. Esto demuestra que una táctica multimodelo no está técnicamente fuera de radio. La pregunta sigue siendo si las empresas construirán ellas mismas la capa de gobernanza o pagarán a cualquiera más para que envuelva la estructura. "código de vibra" con armadura de nivel empresarial.

Related Posts

Google Messages comienza a implementar ‘Tocar para goma’ para respuestas inteligentes

Como vimos anteriormente, Google Messages está agregando un nuevo comportamiento de “Tocar para goma” que le evita respuestas inteligentes accidentales. Ir a Configuración de mensajes> Sugerencias revela una nueva preferencia…

9to5Mac Overtime 062: MacBook Neo permite que el iPad sea un iPad

Jeff es el presidente de producción de contenidos de vídeo de 9to5. Inicialmente se unió a 9to5Mac en 2016, produciendo videos, tutoriales, instructivos, tutoriales escritos y reseñas. Se enorgullece de…

You Missed

Google Messages comienza a implementar ‘Tocar para goma’ para respuestas inteligentes

Google Messages comienza a implementar ‘Tocar para goma’ para respuestas inteligentes

República Dominicana aplasta a Nicaragua con tres jonrones en el Clásico Mundial 2026

República Dominicana aplasta a Nicaragua con tres jonrones en el Clásico Mundial 2026

CDP condena agresiones contra periodistas cubrían caso en SDE | AlMomento.net

CDP condena agresiones contra periodistas cubrían caso en SDE | AlMomento.net

Gran final del convivio de mini baloncesto del Club San Vicente será este sábado

Gran final del convivio de mini baloncesto del Club San Vicente será este sábado

Ribera del Jaya y Hoyeros del Santa Ana salen airosos en el Torneo de Baloncesto Barrial 2026

Ribera del Jaya y Hoyeros del Santa Ana salen airosos en el Torneo de Baloncesto Barrial 2026

9to5Mac Overtime 062: MacBook Neo permite que el iPad sea un iPad

9to5Mac Overtime 062: MacBook Neo permite que el iPad sea un iPad