microsoft ha introducido su acelerador de IA más nuevo, el Microsoft Azure Maia 200. El nuevo chip de IA interno es la próxima engendramiento de la confín Maia GPU de Microsoft, un chip de servidor diseñado para inferir modelos de IA con velocidades y alimentaciones ridículas para exceder las ofertas personalizadas de los competidores hiperescaladores Amazon y Google.
Maia 200 está etiquetado como el “sistema de inferencia más eficaz” de Microsoft de ningún modo implementado, y todos sus comunicados de prensa dividen el tiempo entre elogiar sus grandes cifras de rendimiento y exagerar la palabrería de Microsoft sobre el ambientalismo. Microsoft afirma que el Maia 200 ofrece un 30% más de rendimiento por dólar que el Maia 100 de primera engendramiento, una correr impresionante teniendo en cuenta que el nuevo chip además anuncia técnicamente un TDP un 50% más stop que su predecesor.
| Fila 0 – Celda 0 |
Cerúleo Maia 200 |
AWS Trainium3 |
Nvidia Blackwell B300 Exaltado |
|
tecnología de proceso |
N3P |
N3P |
4NP |
|
petaFLOPS del FP4 |
10.14 |
2.517 |
15 |
|
petaFLOPS del FP8 |
5.072 |
2.517 |
5 |
|
BF16 petaFLOPS |
1.268 |
0,671 |
2.5 |
|
Tamaño de la memoria HBM |
216GB HBM3e |
144GB HBM3e |
288GB HBM3e |
|
Ufano de facción de memoria HBM |
7 TB/s |
4,9 TB/s |
8 TB/s |
|
TDP |
750 vatios |
??? |
1400 vatios |
|
Ufano de facción bidireccional |
2,8 TB/s |
2,56 TB/s |
1,8 TB/s bidireccional |
Como se puede ver hacia lo alto, Maia 200 ofrece una clara superioridad en potencia de enumeración bruta en comparación con la competencia interna de Amazon y plantea una conversación interesante cercano a la GPU líder de Nvidia. Obviamente, la comparación directa de los dos es una tontería; ningún cliente extranjero puede comprar el Maia 200 directamente, el Blackwell B300 Exaltado está diseñado para casos de uso de potencia mucho veterano que el chip de Microsoft, y la pila de software para Nvidia lo pica mucho antaño que cualquier contemporáneo.
El Maia 200 supera al B300 en eficiencia, sin bloqueo, es una gran conquista en una época en la que la opinión pública contra los bienes ambientales de la IA está aumentando constantemente. El Maia 200 opera a casi la centro del TDP del B300 (750W frente a 1400W), y si se parece en poco al Maia 100, funcionará por debajo de su TDP mayor teórico; Maia 100 fue diseñado para ser un chip de 700W, pero Microsoft afirma que estaba constreñido a 500W en funcionamiento.
Maia 200 está optimizado para el rendimiento del FP4 y FP8, centrándose en atender a los clientes que infieren modelos de IA ávidos de rendimiento del FP4, en punto de operaciones más complejas. Gran parte del presupuesto de I+D de Microsoft para el chip parece haberse puesto en la orden de memoria que existe internamente de su mesa SRAM de incorporación eficiencia de 272 MB, que está dividido en “SRAM a nivel de clúster (CSRAM) de varios niveles y SRAM a nivel de baldosa (TSRAM)”, lo que da cabida a una veterano eficiencia operativa y una filosofía de distribución de cargas de trabajo de forma inteligente y uniforme entre todos los troqueles HBM y SRAM.
Es difícil contar las mejoras del Maia 200 con respecto a su predecesor, el Maia 100, ya que las hojas de estadísticas oficiales de Microsoft para entreambos chips casi no se superponen ni comparten medidas. Todo lo que podemos sostener tan pronto es que Maia 200 se calentará más que Maia 100, y que aparentemente es un 30% mejor en una métrica de rendimiento por dólar.
Maia 200 ya se ha implementado en el centro de datos Central Azure de Microsoft en EE. UU., y se anunciaron implementaciones futuras para US West 3 en Phoenix, AZ, y más por venir a medida que Microsoft reciba más chips. El chip será parte del despliegue heterogéneo de Microsoft y además funcionará en conjunto con otros aceleradores de IA diferentes.
Maia 200, originalmente con el nombre en código Tanga, causó sensación por su exposición y propagación muy retrasados. El chip estaba previsto para su propagación y despliegue en 2025, tal vez incluso superando al B300, pero esto no estaba destinado a ser así. El próximo propagación de hardware de Microsoft no es seguro, pero probablemente se fabricará en el proceso 18A de Intel Foundry, según informes de octubre.
El mensaje de Microsoft de priorizar la eficiencia en torno al Maia 200 sigue sus tendencias recientes de exagerar la preocupación de la corporación por las comunidades cercanas a sus centros de datos, tomando grandes medidas para debilitar la reacción al auge de la IA. El director ejecutante de Microsoft, Satya Nadella, habló recientemente en el Foro Financiero Mundial sobre cómo si las empresas no pueden ayudar al manifiesto a ver las supuestas ventajas del exposición de la IA y la construcción de centros de datos, corren el peligro de perder el “permiso social” y crear una temida burbuja de IA.
Seguir Hardware de Tom en Google Newso agréganos como fuente preferidapara cobrar nuestras últimas parte, disección y reseñas en sus feeds.





