OpenAI revela detalles técnicos sobre cómo funciona su agente de codificación de IA

OpenAI revela detalles técnicos sobre cómo funciona su agente de codificación de IA

Vale la pena señalar que los dos AbiertoAI y antrópico abran sus clientes CLI de codificación en GitHub, lo que permite a los desarrolladores examinar la implementación directamente, mientras que no hacen lo mismo con ChatGPT o la interfaz web de Claude.

Una observación oficial al interior del circuito.

La publicación de Bolin se centra en lo que él flama “el onda del agente”, que es la deducción central que orquestina las interacciones entre el becario, el maniquí de IA y las herramientas de software que el maniquí invoca para realizar el trabajo de codificación.

Como escribimos en diciembre, en el centro de cada agente de IA hay un ciclo que se repite. El agente recibe información del becario y prepara un mensaje de texto para el maniquí. Luego, el maniquí genera una respuesta, que produce una respuesta final para el becario o solicita una señal a una aparejo (como ejecutar un comando de shell o observar un archivo). Si el maniquí solicita una señal a la aparejo, el agente la ejecuta, agrega el resultado al mensaje llamativo y consulta el maniquí nuevamente. Este proceso se repite hasta que el maniquí deja de solicitar herramientas y en su ocasión genera un mensaje de asistente para el becario.

Ese proceso de onda tiene que comenzar en alguna parte, y la publicación de Bolin revela cómo Codex construye el mensaje original enviado a la API de Respuestas de OpenAI, que maneja la inferencia del maniquí. El mensaje se construye a partir de varios componentes, cada uno con una función asignada que determina su prioridad: sistema, desarrollador, becario o asistente.

El campo de instrucciones proviene de un archivo de configuración especificado por el becario o de instrucciones básicas incluidas con la CLI. El campo de herramientas define qué funciones puede chillar el maniquí, incluidos comandos de shell, herramientas de planificación, capacidades de búsqueda web y cualquier aparejo personalizada proporcionada a través de los servidores del Protocolo de contexto del maniquí (MCP). El campo de entrada contiene una serie de principios que describen los permisos de la zona de pruebas, instrucciones opcionales para el desarrollador, contexto del entorno como el directorio de trabajo flagrante y, finalmente, el mensaje existente del becario.

Related Posts

La incómoda verdad sobre los vehículos híbridos

Esto es El paso a espaldasun boletín semanal que analiza una historia esencial del mundo de la tecnología. Para obtener más información sobre la lucha de los vehículos eléctricos, siga…

EFF, Ubuntu y otras distribuciones discuten cómo reponer a las leyes de comprobación de vida

Sistema76 no es el único que critica las nuevas leyes de comprobación de vida. el blog 9to5Linux publicó una inspección “informal” a otras discusiones en varias comunidades de Linux. A…

You Missed

¿Efectivamente funcionaron las reformas de Leonel Fernández para combatir la corrupción en República Dominicana?

¿Efectivamente funcionaron las reformas de Leonel Fernández para combatir la corrupción en República Dominicana?

La incómoda verdad sobre los vehículos híbridos

La incómoda verdad sobre los vehículos híbridos

EFF, Ubuntu y otras distribuciones discuten cómo reponer a las leyes de comprobación de vida

EFF, Ubuntu y otras distribuciones discuten cómo reponer a las leyes de comprobación de vida

donde la belleza mueve la patrimonio y las mujeres encuentran apoyo

donde la belleza mueve la patrimonio y las mujeres encuentran apoyo

Voy a salir a romper hoy en presencia de Israel

Voy a salir a romper hoy en presencia de Israel

Anthropic identifica los trabajos que la IA tiene más probabilidades de reemplazar

Anthropic identifica los trabajos que la IA tiene más probabilidades de reemplazar