
La firma de IA china Deepseek tiene libre Su extremo maniquí de estilo alto, Deepseek-V3.2-Exp, con optimizaciones del primer día para la pila de software ASCEND Hardware y Cann de Huawei. El dispersión marca un cambio en las prioridades para certificar que los modelos de vanguardia se ejecuten en aceleradores nacionales en extensión de Aguardar en el ecosistema CUDA de Nvidia.
Deepseek anunció el maniquí el 29 de septiembre, publicando código y puntos de control para abrazar a Face conexo con un mensaje técnico. La compañía describe V3.2-EXP como un “paso intermedio en torno a nuestra obra de próxima engendramiento”, diseñado para sujetar los costos en la inferencia de contexto grande. Cuenta con un mecanismo de atención escasa que recorta la memoria y calcula los requisitos mientras mantiene la calidad de la salida.
El equipo Ascend de Huawei y la comunidad más amplia de VLLM-Qubert se movieron rápidamente para integrar Deepseek-V3.2-Exp. En el repositorio VLLM-ASCEND, un nuevo problema describe los pasos de instalación de operadores personalizados y el empaque del núcleo para Ascend NPUS para aceptar V3.2-Exp. El equipo de Cann además publicó una prescripción de inferencia, posicionando el maniquí para la implementación inmediata en el hardware Huawei.
Aumento de la colaboración BW Deepseek & Ascend/Cann Team en el apoyo de V3.2-Exp w/GitCode actualizaciones a Cann, así como las actualizaciones de GitHub en Vllm & Sglang + Tilelang Support. Además Cambricon tuvo actualizaciones en vllm (vllm-mlu) para respaldar su inferencia. pic.twitter.com/cbgk7pvzrx29 de septiembre de 2025
Mientras tanto, Sglang confirmó el soporte V3.2-Exp en múltiples extremos, incluido Ascend, mientras que las notas GitHub de Deepseek sugieren paridad con VLLM en el dispersión. Deepseek mismo hace remisión públicamente a los núcleos Tilelang y Cuda en sus anuncios, instando a los investigadores a usar Tilelang para la creación de prototipos. Prácticamente, eso significa que el mismo artefacto maniquí se puede implementar en NVIDIA y aceleradores chinos con solo cambios de gráficos mínimos.
El pura velocidad de admisión Aquí ilustra cómo el ecosistema de IA de China se está preparando sin extensión a dudas para un futuro en el que el entrada al hardware de Nvidia no se puede dar por sentado. El CUDA de Nvidia sigue siendo dominante tanto para el entrenamiento como para la inferencia, pero el extremo dispersión de Deepseek es uno de los primeros de una importante compañía china que aparentemente llegará optimizada para las pilas que no sean de Acuda el primer día.
El esfuerzo coordinado en Ascend, Cambricon e Hygon es la señal más clara hasta la data que son las empresas chinas. Tomar en serio las demandas de Beijing de soberanía de IAno solo hacer que su hardware sea compatible a posteriori del hecho, sino posicionar plataformas nacionales como objetivos de primera clase.
Seguir Hardware de Tom en Google News Para obtener nuestras noticiero, observación y revisiones actualizadas en sus feeds. Asegúrese de hacer clic en el cogollo Forzar.





