La división de IA de Microsoft anunció su primer de cosecha propia AI Models el jueves: Mai-Voice-1 AI y MAI-1-Preview. La compañía dice que su nuevo maniquí de discurso MAI-VOICE-1 puede suscitar un minuto de audio en menos de un segundo en solo una GPU, mientras que MAI-1-Preview “ofrece una idea de futuras ofertas interiormente de Copilot”.
Puedes probar Ma1-Voice-1 para ti En Copilot Labsdonde puede ingresar lo que quiere que diga el maniquí AI, así como cambiar su voz y estilo de conversar. Adicionalmente de este maniquí, Microsoft introdujo la traza previa MAI-1, que dice que entrenó en aproximadamente de 15,000 GPU NVIDIA H100. Está creado para usuarios que necesitan un maniquí de IA capaz de seguir instrucciones y “proporcionar respuestas enseres a las consultas cotidianas”.
Patriarca de AI de Microsft Descifrador El año pasado, los modelos de IA internos de la compañía no se centran en los casos de uso empresarial. “Mi dialéctica es que tenemos que crear poco que funcione extremadamente admisiblemente para el consumidor y verdaderamente optimice para nuestro caso de uso”, dijo Suleyman. “Por lo tanto, tenemos grandes cantidades de datos muy predictivos y muy enseres en el costado del anuncio, en la telemetría del consumidor, etc.
Microsoft AI planea implementar la traza de mai-1 para ciertos casos de uso de texto en su asistente de AI de copilot, que actualmente depende de los modelos de idiomas grandes de OpenAI. Todavía ha comenzado a probar públicamente su maniquí MAI-1-previa en la plataforma de evaluación comparativa de IA Lmarena.
“Tenemos grandes ambiciones para alrededor de dónde vamos a continuación”, escribe Microsoft Ai en la publicación del blog. “No solo buscaremos más avances aquí, sino que creemos que orquestar una escala de modelos especializados que sirven diferentes intentos de adjudicatario y casos de uso desbloqueará un valía inmenso”.





