
AMD planea divulgar sus dos primeros aceleradores de instinto a escalera de rack en 2026 para competir con el VR300 NVL144 de NVIDIA, informa Semianálisis. Se denominan instinto de AMD MI450X IF64 e Instinct MI450X IF128, y entreambos están diseñados para la implementación de AI. Si demuestran ser un éxito, podría cambiar el panorama del hardware de IA con el tiempo.
Si aceptablemente las GPU de la serie MI300 de AMD y las GPU HPC son muy potentes en el papel, no pueden competir contra la posibilidad de a escalera de armadura GB200 NVL72 de NVIDIA en términos de escalabilidad de rendimiento, ya que su tamaño mundial de ampliación máxima es de ocho procesadores.
Pero el próximo año, las cosas cambiarán a medida que AMD planea divulgar su instinto MI450X IF64 e instinto MI450X IF128 soluciones, repletas de 64 y 128 paquetes de GPU, para competir contra las VR200 NVL144 de NVIDIA (con 72 paquetes de GPU).
Teóricamente, el MI450X IF128 de AMD puede tener una delantera sobre el VR200 NVL144 de NVIDIA. Sin incautación, su complejidad y desafíos técnicos pueden demarcar su éxito original.
El instinto MI450X IF128 será el primer sistema de AMD que admite múltiples procesadores de IA en dos bastidores que usan tela Infinity, extendida sobre Ethernet. La máquina dependerá de los servidores 16 1U que ejecutarán una CPU ‘Venecia’ AMD EPYC con cuatro GPU de instinto MI450X equipadas con su propio categoría de memoria LPDDR y un PCIe X4 SSD. Cada una de las 128 GPU tendrá más de 1.8 TB/s de orondo de lado interno unidireccional para la comunicación entre GPU en el interior del mismo dominio de escalera, lo que permite clústeres de cuenta significativamente más grandes que AMD ha admitido hasta ahora.
Para la comunicación de escalera fuera del categoría tópico de GPU (es opinar, máquinas MI450X IF128), el sistema incluirá hasta tres tarjetas de red Pensando de 800 GBE para cada GPU. Esto proporciona un orondo de lado de red de salida total de 2.4 TB/s por dispositivo (a través de PCIE). Incluso habrá una configuración secundaria apto, lo que permite que cada GPU use dos tarjetas de red de 800GBE conectadas usando una interfaz PCIe. Sin incautación, esta interpretación no podrá usar el orondo de lado completo de las interfaces, ya que los enlaces PCIe 5.0 son insuficientes para aposentar completamente dos tarjetas de red de entrada velocidad.
A diferencia de los sistemas de la serie GB200 de NVIDIA, que utilizan cables ópticos activos con componentes integrados para conectar bastidores, AMD empleará un enfoque de cableado de cobre pasivo más simple. Esta logística puede ayudar a ceñir el costo del sistema y el consumo de energía, pero podría estar menguado por la integridad de la señal o las limitaciones de la largo del cable.
Encima, conveniente a la complejidad, la fabricación y la implementación del sistema pueden indisponer retrasos o problemas técnicos. Para afrontar este peligro, AMD está preparando una interpretación más pequeña de la misma bloque señal MI450X IF64. Esta variación se limitará a un solo estante y usará un diseño de interconexión simplificado, que promete habilitar un despliegue más predecible.
Si AMD se las arregla para ejecutar esta bloque con éxito, podría mejorar su posición en el mercado de Computo AI, particularmente los sistemas de inferencia de IA. Sin incautación, si podrá desafiar a Nvidia es poco que queda por hallarse.
Seguir Hardware de Tom en Google News Para obtener nuestras parte, descomposición y revisiones actualizadas en sus feeds. Asegúrese de hacer clic en el capullo Forzar.