
Hasta hace poco, la destreza de crear agentes de IA era un poco como entrenar a un corredor de larga distancia con una memoria de treinta segundos.
Sí, podrías darle a tus modelos de IA herramientas e instrucciones, pero luego de unas pocas docenas de interacciones (varias vueltas rodeando de la pista, para ampliar nuestra similitud con la carrera), inevitablemente perdería el contexto y comenzaría a desbarrar.
Con Las últimas actualizaciones de OpenAI A su API Responses, la interfaz de programación de aplicaciones que permite a los desarrolladores de la plataforma OpenAI conseguir a múltiples herramientas de agente como búsqueda web y búsqueda de archivos con una sola convocatoria, la compañía está indicando que la era del agente constreñido está disminuyendo.
Las actualizaciones anunciadas hoy incluyen compactación del costado del servidor, contenedores Shell alojados y un nuevo "Habilidades" normalizado para agentes.
Con estas tres actualizaciones importantes, OpenAI les está brindando a los agentes un escritorio permanente, una terminal y una memoria que no se desvanece y debería ayudar a los agentes a transformarse aún más hasta convertirse en trabajadores digitales confiables y a amplio plazo.
Tecnología: exceder la ‘amnesia contextual’
El obstáculo técnico más importante para los agentes autónomos siempre ha sido la "desorden" de tareas de larga duración. Cada vez que un agente ardor a una utensilio o ejecuta un script, el historial de conversaciones crece.
Al final, el maniquí alcanza su meta de tokens y el desarrollador se ve obligado a truncar el historial, eliminando a menudo el mismo. "razonamiento" el agente necesita terminar el trabajo.
La respuesta de OpenAI es la compactación del costado del servidor. A diferencia del simple truncamiento, la compactación permite que los agentes funcionen durante horas o incluso días.
Datos iniciales de la plataforma de comercio electrónico Triple Ballena sugiere Este es un gran avance en la estabilidad: su agente, Moby, navegó con éxito en una sesión que involucró 5 millones de tokens y 150 llamadas a herramientas sin una disminución en la precisión.
En términos prácticos, esto significa que el maniquí puede "resumir" sus propias acciones pasadas en un estado comprimido, manteniendo vivo el contexto esencial mientras se aclara el ruido. Transforma el maniquí de un asistente olvidadizo a un proceso de sistema persistente.
Zonas de pruebas en la abundancia administradas
La preparación de la utensilio Shell lleva a OpenAI al ámbito de la computación administrada. Los desarrolladores ahora pueden optar por container_auto, que aprovisiona un entorno Debian 12 alojado en OpenAI.
Esto no es sólo un intérprete de código: le brinda a cada agente su propio entorno de terminal completo precargado con:
-
Entornos de ejecución nativos incluidos Python 3.11, Node.js 22, Java 17, Go 1.23 y Ruby 3.1.
-
Almacenamiento persistente a través de
/mnt/datalo que permite a los agentes ocasionar, tener y descargar artefactos. -
Capacidades de red que permiten a los agentes conseguir a Internet para instalar bibliotecas o interactuar con API de terceros.
El Hosted Shell y su persistente /mnt/data El almacenamiento proporciona un entorno administrado donde los agentes pueden realizar transformaciones de datos complejas utilizando Python o Java sin pobreza de que el equipo cree y mantenga middleware ETL (Extirpación, Transformación, Carga) personalizado para cada plan de IA.
Al exprimir estos contenedores alojados, los ingenieros de datos pueden implementar tareas de procesamiento de datos de detención rendimiento y al mismo tiempo minimizar el "múltiples responsabilidades" que vienen con la papeleo de infraestructura personalizada, la matanza de los gastos generales de la construcción y la seguridad de sus propios entornos sandbox. OpenAI esencialmente dice: “Danos las instrucciones; nosotros te proporcionaremos la computadora”.
Las habilidades de OpenAI frente a las habilidades de Anthropic
Mientras OpenAI corre con destino a una pila de orquestación de agentes unificada, enfrenta un desafío filosófico importante por parte de Agent Skills de Anthropic.
Ambas empresas han convergido en una estructura de archivos notablemente similar: utilizando un SKILL.md (rebajas) se manifiestan con la vanguardia de YAML, pero sus estrategias subyacentes revelan visiones divergentes para el futuro del trabajo.
El enfoque de OpenAI prioriza una "sustrato programable" optimizado para la velocidad del desarrollador. Al agrupar el shell, la memoria y las habilidades en la API de Responses, ofrecen una "argolla" experiencia para construir agentes complejos rápidamente.
Ya es una startup de búsqueda empresarial de IA Investigar informó un aumento en la precisión de la utensilio del 73% al 85% al utilizar el entorno de habilidades de OpenAI.
Por el contrario, Anthropic ha agresivo Agent Skills como un normalizado amplio independiente (agentskills.io).
Si perfectamente el sistema de OpenAI está estrechamente integrado en su propia infraestructura de abundancia, las habilidades de Anthropic están diseñadas para la portabilidad. En teoría, una diplomacia creada para Claude se puede trasladar a VS Code, Cursor o cualquier otra plataforma que adopte la precisión.
De hecho, el nuevo y exitoso agente de inteligencia químico de código amplio OpenClaw adoptó exactamente esto SKILL.md empaquetado basado en manifiestos y carpetas, lo que le permite heredar una gran cantidad de conocimientos de procedimientos especializados diseñados originalmente para Claude.
Esta compatibilidad arquitectónica ha impulsado una comunidad impulsada "auge de habilidades" en plataformas como ClawHub, que ahora alberga más de 3000 extensiones creadas por la comunidad que van desde integraciones de hogares inteligentes hasta complejas automatizaciones de flujos de trabajo empresariales.
Esta polinización cruzada demuestra que la "Diplomacia" se ha convertido en un activo versionado y portátil en oportunidad de una función bloqueada por el proveedor. Adecuado a que OpenClaw admite múltiples modelos, incluida la serie GPT-5 de OpenAI y las instancias locales de Vehemencia, los desarrolladores ahora pueden escribir una diplomacia una vez e implementarla en un panorama heterogéneo de agentes.
Para los responsables de la toma de decisiones técnicas, este normalizado amplio se está convirtiendo en la forma preferida de la industria para externalizar y compartir "conocimiento agente," pasando de las indicaciones de propiedad con destino a una infraestructura compartida, inspeccionable e interoperable.
Pero hay otra distinción importante entre OpenAI y Anthropic. "Habilidades."
OpenAI utiliza la compactación del costado del servidor para ejecutar el estado activo de una sesión de larga duración. Anthropic utiliza Progressive Disclosure, un sistema de tres niveles en el que inicialmente el maniquí solo conoce los nombres y descripciones de las habilidades.
Los detalles completos y los scripts auxiliares solo se cargan cuando la tarea los requiere específicamente. Esto permite que existan bibliotecas de habilidades masivas (directrices de marca, listas de demostración legales y plantillas de código) sin ahogar la memoria de trabajo del maniquí.
Implicaciones para los tomadores de decisiones técnicas empresariales
Para ingenieros enfocados en "rápido despliegue y ajuste," la combinación de compactación y habilidades del costado del servidor proporciona un enorme impulso a la productividad
En oportunidad de crear una papeleo de estado personalizada para cada ejecución de agente, los ingenieros pueden exprimir la compactación integrada para manejar tareas de varias horas.
Las habilidades permiten "IP empaquetada," donde se pueden modularizar y reutilizar conocimientos de procedimientos especializados o ajustes específicos en diferentes proyectos internos.
Para aquellos encargados de trasladar la IA desde un "cuadro de chat" en un flujo de trabajo de nivel de producción: el anuncio de OpenAI marca el final del "infraestructura a medida" era.
Históricamente, orquestar un agente requería una importante estructura manual: los desarrolladores tenían que crear una dialéctica de papeleo de estado personalizada para manejar largas conversaciones y entornos limitados seguros y efímeros para ejecutar código.
El desafío ya no es "¿Cómo le doy una terminal a este agente?" pero "¿Qué habilidades están autorizadas para qué usuarios?" y "¿Cómo auditamos los artefactos producidos en el sistema de archivos alojado?" OpenAI ha proporcionado el motor y el chasis; El trabajo del orquestador ahora es determinar las reglas del camino.
Para los gerentes de operaciones de seguridad (SecOps), darle a un maniquí de IA un shell y ataque a la red es una cambio de detención aventura. El uso de OpenAI de secretos de dominio y listas de organizaciones permitidas proporciona una logística de defensa en profundidad, lo que garantiza que los agentes puedan seducir a las API sin exponer las credenciales sin procesar al contexto del maniquí.
Pero a medida que los agentes se vuelven más fáciles de implementar a través de "Habilidades," SecOps debe estar atento a "habilidades maliciosas" que podrían introducir vulnerabilidades de inyección rápida o rutas de filtración de datos no autorizadas.
¿Cómo deberían animarse las empresas?
OpenAI ya no se limita a entregar un "cerebro" (el maniquí); esta vendiendo el "oficina" (el contenedor), el "memoria" (compactación) y la "manual de entrenamiento" (habilidades). Para los líderes empresariales, la sufragio es cada vez más clara:
-
Elija OpenAI si necesita un entorno integrado y de ingreso velocidad para un trabajo autónomo de larga duración.
-
Elija Anthropic si su ordenamiento requiere portabilidad independiente del maniquí y un normalizado de ecosistema amplio.
En última instancia, los anuncios indican que la IA está saliendo del chat y entrando en la casa del sistema, convirtiéndose "espaguetis rápidos" en flujos de trabajo empresariales mantenibles, versionados y escalables.






