Conozca a Aardvark, el agente de seguridad de OpenAI para observación y parcheo de código

Conozca a Aardvark, el agente de seguridad de OpenAI para observación y parcheo de código

OpenAI ha introducido Repugnante hormigueroa Agente investigador de seguridad autónomo impulsado por GPT-5 ahora habitable en beta privada.

Diseñado para imitar la forma en que los expertos humanos identifican y resuelven vulnerabilidades de software, Aardvark ofrece un enfoque de múltiples etapas impulsado por LLM para capacitación continua, las 24 horas./7/365 observación de código, garra de explotacióny procreación de parches!

Posicionado como una utensilio de defensa escalable para entornos de incremento de software modernos, Aardvark se está probando en bases de código internas y externas.

OpenAI informa una incorporación recuperación y efectividad en el mundo actual a la hora de identificar vulnerabilidades conocidas y sintéticas, y las primeras implementaciones revelan problemas de seguridad no detectados anteriormente.

Aardvark llega inmediatamente posteriormente del impulso ayer por parte de OpenAI de los modelos gpt-oss-safeguard, ampliando el flamante pedantería de la compañía en sistemas agentes y alineados con políticas.

Diseño Técnico y Operación

Aardvark opera como un sistema agente que analiza continuamente los repositorios de código fuente. A diferencia de las herramientas convencionales que se basan en observación de composición de software o fuzzing, Aardvark aprovecha el razonamiento LLM y las capacidades de uso de herramientas para interpretar el comportamiento del código e identificar vulnerabilidades.

Simula el flujo de trabajo de un investigador de seguridad leyendo código, realizando observación semántico, escribiendo y ejecutando casos de prueba y utilizando herramientas de dictamen.

Su proceso sigue un proceso estructurado de varias etapas:

  1. Modelado de amenazas – Aardvark inicia su observación ingiriendo un repositorio de código completo para gestar un maniquí de amenaza. Este maniquí refleja los objetivos de seguridad inferidos y el diseño arquitectónico del software.

  2. Escaneo a nivel de compromiso – A medida que se realizan cambios en el código, Aardvark compara diferencias con el maniquí de amenazas del repositorio para detectar vulnerabilidades potenciales. Además realiza escaneos históricos cuando se conecta un repositorio por primera vez.

  3. Zona de pruebas de garra – Las vulnerabilidades detectadas se prueban en un entorno eventual para confirmar la explotabilidad. Esto reduce los falsos positivos y mejoría la precisión de los informes.

  4. Parches automatizados – El sistema se integra con OpenAI Codex para gestar parches. Luego, estas correcciones propuestas se revisan y envían mediante solicitudes de linaje para la aprobación del desarrollador.

Aardvark se integra con GitHub, Codex y canales de incremento comunes para proporcionar un escaneo de seguridad continuo y no intrusivo. Todos los conocimientos están destinados a ser auditables por humanos, con anotaciones claras y reproducibilidad.

Rendimiento y aplicación

Según OpenAI, Aardvark ha estado operante durante varios meses en bases de código internas y con socios alfa seleccionados.

En pruebas comparativas en repositorios “dorados”, donde se sembraron vulnerabilidades conocidas y sintéticas,Aardvark identificó el 92% del total de problemas.

OpenAI enfatiza que su precisión y su disminución tasa de falsos positivos son diferenciadores secreto.

El agente incluso se ha implementado en proyectos de código rajado. Hasta la vencimiento, ha descubierto múltiples problemas críticos, incluidas diez vulnerabilidades a las que se les asignaron identificadores CVE.

OpenAI afirma que todos los hallazgos se divulgaron de modo responsable según su política de divulgación coordinada recientemente actualizada, que favorece la colaboración en extensión de cronogramas rígidos.

En la actos, Aardvark ha revelado errores complejos más allá de las fallas de seguridad tradicionales, incluidos errores lógicos, correcciones incompletas y riesgos de privacidad. Esto sugiere una utilidad más amplia más allá de los contextos específicos de seguridad.

Integración y requisitos

Durante la traducción beta privada, Aardvark solo está habitable para organizaciones que utilizan GitHub Cloud (github.com). OpenAI invita a los probadores beta a regístrate aquí en columna completando un formulario web. Los requisitos de billete incluyen:

  • Integración con la abundancia de GitHub

  • Compromiso de interactuar con Aardvark y proporcionar comentarios cualitativos.

  • Acuerdo con los términos y políticas de privacidad específicos de la traducción beta

OpenAI confirmó que el código enviado a Aardvark durante la traducción beta no se utilizará para entrenar sus modelos.

La compañía incluso ofrece escaneo de vulnerabilidades de balde para repositorios de código rajado no comerciales seleccionados, citando su intención de contribuir a la lozanía de la dependencia de suministro de software.

Contexto importante

El impulso de Aardvark señala el movimiento más amplio de OpenAI en torno a sistemas de IA agentes con capacidades específicas de dominio.

Si aceptablemente OpenAI es mejor conocido por sus modelos de propósito normal (por ejemplo, GPT-4 y GPT-5), Aardvark es parte de una tendencia creciente of agentes especializados en IA diseñado para efectuar de forma semiautónoma en entornos del mundo actual. De hecho, ahora se suma a otros dos agentes activos de OpenAI:

  • Agente ChatGPT, presentado en julio de 2025, que controla una computadora posible y un navegador web y puede crear y editar archivos de productividad comunes.

  • Codex: anteriormente el nombre del maniquí de codificación de código rajado de OpenAI, que tomó y reutilizó como el nombre de su nuevo agente de codificación de IA impulsado por la variación GPT-5 presentado en mayo de 2025.

Pero un agente centrado en la seguridad tiene mucho sentido, especialmente a medida que aumentan las demandas sobre los equipos de seguridad.

Solo en 2024, se informaron más de 40.000 vulnerabilidades y exposiciones comunes (CVE), y los datos internos de OpenAI sugieren que el 1,2% de todas las confirmaciones de código introducen errores.

El posicionamiento de Aardvark como una IA “primero el defensor” se alinea con la indigencia del mercado de herramientas de seguridad proactivas que se integren estrechamente con los flujos de trabajo de los desarrolladores en extensión de efectuar como capas de escaneo post-hoc.

Las actualizaciones coordinadas de la política de divulgación de OpenAI refuerzan aún más su compromiso con la colaboración sostenible con los desarrolladores y la comunidad de código rajado, en extensión de subrayar los informes de vulnerabilidad contradictorios.

Mientras que el impulso de ayer de oss-safeguard utiliza un razonamiento en dependencia de pensamiento para aplicar políticas de seguridad durante la inferencia, Aardvark aplica un razonamiento LLM similar para proteger bases de código en proceso.

Juntas, estas herramientas señalan el cambio de OpenAI de herramientas estáticas a sistemas flexibles y continuamente adaptables: uno centrado en la moderación de contenido, el otro en la detección proactiva de vulnerabilidades y la aplicación de parches automatizados interiormente de entornos de incremento de software del mundo actual.

Qué significa para las empresas y el mercado de CyberSec en el futuro

Aardvark representa la entrada de OpenAI en la investigación de seguridad automatizada a través de IA agente. Al combinar la comprensión del jerigonza GPT-5 con los entornos sandbox de garra y parches basados ​​en Codex, Aardvark ofrece una posibilidad integrada para los equipos de software modernos que enfrentan una creciente complejidad de seguridad.

Si aceptablemente actualmente se encuentra en traducción beta limitada, los primeros indicadores de rendimiento sugieren potencial para una admisión más amplia. Si se demuestra eficaz a escalera, Aardvark podría contribuir a un cambio en la forma en que las organizaciones integran la seguridad en entornos de incremento continuo.

Para los líderes de seguridad encargados de tramitar la respuesta a incidentes, la detección de amenazas y las protecciones diarias (en particular aquellos que operan con una capacidad de equipo limitada), Aardvark puede servir como un multiplicador de fuerza. Su proceso de garra autónomo y sus propuestas de parches auditables por humanos podrían apresurar la clasificación y someter la pesadumbre de las alertas, permitiendo que los equipos de seguridad más pequeños se concentren en incidentes estratégicos en extensión del escaneo y seguimiento manual.

Los ingenieros de IA responsables de integrar modelos en productos reales pueden beneficiarse de la capacidad de Aardvark para detectar errores que surgen de fallas lógicas sutiles o correcciones incompletas, particularmente en ciclos de incremento de rápidos cambios. Oportuno a que Aardvark monitorea los cambios a nivel de compromiso y los rastrea frente a modelos de amenazas, puede ayudar a advertir vulnerabilidades introducidas durante la iteración rápida, sin parar los plazos de entrega.

Para los equipos que organizan la IA en entornos distribuidos, la garra de la zona de pruebas y los ciclos de feedback continua de Aardvark podrían alinearse aceptablemente con los canales de estilo CI/CD para sistemas de formación espontáneo. Su capacidad para conectarse a los flujos de trabajo de GitHub lo posiciona como una suplemento compatible a las pilas de operaciones de IA modernas, especialmente aquellas que apuntan a integrar controles de seguridad sólidos en los procesos de automatización sin gastos generales adicionales.

Y para los equipos de infraestructura de datos que mantienen tuberías y herramientas críticas, las capacidades de inspección basadas en LLM de Aardvark podrían ofrecer una capa adicional de resiliencia. Las vulnerabilidades en las capas de orquestación de datos a menudo pasan desapercibidas hasta que se explotan; El proceso continuo de revisión de código de Aardvark puede revelar problemas en etapas más tempranas del ciclo de vida de incremento, lo que ayuda a los ingenieros de datos a perdurar tanto la integridad como el tiempo de actividad del sistema.

En la actos, Aardvark representa un cambio en la forma en que se puede poner en actos la experiencia en seguridad, no sólo como un perímetro defensivo, sino como un participante persistente y consciente del contexto en el ciclo de vida del software. Su diseño sugiere un maniquí en el que los defensores ya no están limitados por la escalera, sino reforzados por agentes inteligentes que trabajan próximo a ellos.

Related Posts

Uno de los estrenos de ciencia ficción más importantes del año ya casi está aquí

Si te gusta la ciencia ficción, marzo es un gran mes. Hay muchas cosas geniales en la televisión, incluida la finca temporada de Para toda la humanidadel absorbente software de…

Quién, qué y por qué del ataque que cerró la red Windows de Stryker

¿Qué más se sabe sobre Handala Hack? El montón existe desde al menos 2023. Toma su nombre de un personaje de las caricaturas políticas del cómico palestino Naji al-Ali. El…

You Missed

MP pide prisión preventiva a implicados en asalto a mujer en Santiago

MP pide prisión preventiva a implicados en asalto a mujer en Santiago

Avión cisterna estadounidense se sino en paraje iraquí

Avión cisterna estadounidense se sino en paraje iraquí

Uno de los estrenos de ciencia ficción más importantes del año ya casi está aquí

Uno de los estrenos de ciencia ficción más importantes del año ya casi está aquí

“Estamos enfocados en ingresar el campeonato”

“Estamos enfocados en ingresar el campeonato”

Cervecería Doméstico Dominicana anuncia software de talento

Cervecería Doméstico Dominicana anuncia software de talento

Óscar 2026 entre acción directa y conflictos globales

Óscar 2026 entre acción directa y conflictos globales