
Únase a nuestros boletines diarios y semanales para obtener las últimas actualizaciones y contenido exclusivo sobre la cobertura de IA líder de la industria. Obtenga más información
Con la demanda de engendramiento aumentada de recuperación empresarial (RAG) en aumento, la oportunidad está madura para que los proveedores de modelos ofrezcan su opinión sobre los modelos de incrustación.
Compañía de IA francés Mistral arrojó su sombrero al ring con BacalaoEstral Insquitir, su primer maniquí de incrustación, que dijo que supera a los modelos de incrustación existentes en puntos de narración como SWE-Bench.
El maniquí se especializa en código y “funciona especialmente perfectamente para los casos de uso de recuperación en los datos del código del mundo vivo”. El maniquí está adecuado para los desarrolladores por $ 0.15 por millón de tokens.
La compañía dijo que la incrustación Codestral “supera significativamente los integrantes de código líderes” como el código de delirio 3, Sumarse Empotrar v4.0 y OpadaiEl maniquí de incrustación, texto incrustado 3 grandes.
Codestral Incrustral, parte de la clan Codestral de modelos de codificación de Mistral, puede hacer incrustaciones que transforman el código y los datos en representaciones numéricas para RAG.
“La incrustación Codestral puede originar incrustaciones con diferentes dimensiones y precisiones, y la futuro figura ilustra las compensaciones entre la calidad de la recuperación y los costos de almacenamiento”, dijo Mistral en una publicación de blog. “La incrustación de Codestral con Dimension 256 e Int8 Precision todavía funciona mejor que cualquier maniquí de nuestros competidores. Las dimensiones de nuestros incrustaciones se ordenan por relevancia. Para cualquier dimensión objetivo impasible, puede optar por permanecer las primeras n dimensiones para una compensación suave entre la calidad y el costo”.
Mistral probó el maniquí en varios puntos de narración, incluidos SWE Bench y Text2Code de GitHub. En los dos casos, la compañía dijo que la incrustación de Codestral superó a los modelos de incrustación líderes.
Banca
Text2code
Casos de uso
Mistral dijo que la incrustación Codestral está optimizada para la “recuperación de código de parada rendimiento” y la comprensión semántica. La compañía dijo que el código funciona mejor para al menos cuatro tipos de casos de uso: trapo, búsqueda de código semántico, búsqueda de similitud y observación de código.
Los modelos de incrustación generalmente se dirigen a casos de uso de trapo, ya que pueden proporcionar la recuperación de información más rápida para tareas o procesos de agente. Por lo tanto, no es sorprendente que la incrustación de Codestral se centre en eso.
El maniquí además puede realizar una búsqueda de código semántico, lo que permite a los desarrolladores encontrar fragmentos de código utilizando habla natural. Este caso de uso funciona perfectamente para plataformas de herramientas de desarrollador, sistemas de documentación y copilotos de codificación. CodeStral InsgriT además puede ayudar a los desarrolladores a identificar segmentos de código duplicados o cadenas de código similares, lo que puede ser útil para las empresas con políticas relacionadas con el código reutilizado.
El maniquí admite la agrupación semántica, que implica el código de agrupación en función de su funcionalidad o estructura. Este caso de uso ayudaría a analizar repositorios, clasificar y encontrar patrones en la obra de código.
La competencia está aumentando en el espacio de incrustación
Mistral ha estado en ráfaga con la manumisión de nuevos modelos y herramientas de agente. Lanzó el Medio 3 3, una lectura media de su maniquí de habla ilustre (LLM), que actualmente alimenta su empresa LE Chat de plataforma centrada en la empresa.
Todavía anunció la API de agentes, que permite a los desarrolladores alcanzar a herramientas para crear agentes que realizan tareas del mundo vivo y orquestan múltiples agentes.
Los movimientos de Mistral para ofrecer más opciones de modelos a los desarrolladores no han pasado desapercibidos en los espacios de desarrolladores. Algunos en X notan que el momento de Mistral para liberar a Codestral Incrust está “llegando amoldonado en el aumento de la competencia”.
Sin retención, Mistral debe demostrar que la incrustación de codestral funciona perfectamente no solo en las pruebas de narración. Si perfectamente compite con modelos más cerrados, como los de OpenAi y Cohere, Codestral Insquital además enfrenta opciones de código destapado de Dígitoincluido Qodo-Embed-1-1.5 B.
VentureBeat contactó a Mistral sobre las opciones de deshonestidad de Codestral Inbred.