Aunque las GPU de IA de Nvidia y las soluciones a escalera de rack siguen siendo los aceleradores de IA más buscados, las restricciones impuestas a las exportaciones de procesadores de IA de Nvidia a China, primero por la Casa Blanca y luego por Beijing, están teniendo un meta drástico en la presencia de la compañía en la República Popular. Como resultado, la billete de la compañía en China podría caer a sólo el 8% en los próximos abriles, ya que los proveedores nacionales pueden satisfacer rodeando del 80% de la demanda recinto, según informes. nikkei, citando exploración de Bernstein.
“Los nuevos productos satisfacen las deyección de los desarrolladores nacionales”, dijo Zhang Jianzhong, director ejecutante de Moore Threads, en una conferencia de prensa al anunciar el producto con nombre en código Huashan, la primera GPU de la compañía dedicada exclusivamente a la velocidad de cargas de trabajo de IA. “Ya no habrá pobreza de esperar a que lleguen productos avanzados del extranjero”.
Huashan de Moore Threads puede competir con los productos Hopper H100 y H200 de Nvidia, los aceleradores de IA de la concepción precedente de la compañía que el Recientemente, Estados Unidos permitió exportar a China, pero con algunas condiciones serias. Sin secuestro, son considerablemente más lentas que las GPU Blackwell B200 y B300 existentes de Nvidia, cuyas exportaciones a la República Popular están prohibidas. Mientras tanto, AI CloudMatrix 384 de Huawei puede exceder a los sistemas GB200 NVL72 y GB300 NVL72 en BF16 FLOPS, un formato popular utilizado para el entrenamiento de IA, aunque con un consumo de energía cuatro veces anciano. Se prevé que el Atlas 950 SuperCluster de próxima concepción de la compañía, basado en 524.288 aceleradores de IA Ascend 950DT, ofrezca hasta 524 FP8 ExaFLOPS para entrenamiento de IA y hasta 1 FP4 ZettaFLOPS para inferencia de IA (MXFP4 para ser más específicos) a veces en 2026 – 2027 y 4 ZettaFLOPS para finales de 2028. Esto todavía está detrás de los principales clústeres basados en Blackwell, como el OCI Supercluster de Oracle que ejecuta 131.072 GPU B200 y ofrece un rendimiento mayor de hasta 2,4 FP4 ZettaFLOPS para inferencia, pero es evidente que los desarrolladores chinos están aumentando rápidamente el rendimiento de su hardware de IA.
Seguir Hardware de Tom en Google Newso agréganos como fuente preferidapara aceptar nuestras últimas telediario, exploración y reseñas en sus feeds.






