
El situación de educación maquinal MLX de Apple, diseñado originalmente para Apple Silicon, está obteniendo un backend CUDA, lo cual es un gran problema. He aquí por qué.
El trabajo está siendo dirigido por el desarrollador @zcbenz en Github (a través de Manzana), quien comenzó a crear prototipos de soporte CUDA hace unos meses. Desde entonces, dividió el plan en piezas más pequeñas y los fusionó gradualmente en la rama principal de MLX de Apple.
El backend sigue siendo un trabajo en progreso, pero varias operaciones centrales, como la multiplicación de matriz, Softmax, Reducción, clasificación e indexación, ya son compatibles y probadas.
Paciencia, ¿qué es Cuda?
Básicamente, Cuda (o la cimentación de dispositivos unificados de enumeración) es el metal del hardware NVIDIA: una plataforma de computación que la compañía creó específicamente para ejecutarse en sus propias GPU y disfrutar al mayor las tareas informáticas paralelas de suspensión rendimiento.
Para muchos, CUDA es la forma standard de ejecutar cargas de trabajo de educación maquinal en las GPU de NVIDIA, y se usa en todo el ecosistema ML, desde la investigación académica hasta la implementación comercial. Los marcos como Pytorch y TensorFlow, que son nombres cada vez más familiares incluso fuera de los círculos de ML profundos, todos dependen de CUDA para disfrutar la velocidad de GPU.
Entonces, ¿por qué el MLX de Apple ahora está apoyando a CUDA?
MLX se optimizó originalmente para el silicio de manzana y el metal, pero pegar un backend de CUDA cambia eso. Ahora, los investigadores e ingenieros pueden prototipos de modelos basados en CUDA localmente en una Mac usando MLX, y luego implementarlos en grupos de GPU NVIDIA a gran escalera, que aún dominan las cargas de trabajo de entrenamiento de educación maquinal.
Dicho esto, todavía hay limitaciones, la mayoría de las cuales son obras en progreso. Por ejemplo, aún no todos los operadores MLX se implementan, y el soporte de GPU de AMD aún está más delante.
Aún así, unir las GPU de MLX y NVIDIA abre la puerta a las pruebas, experimentación y casos de uso de investigación más rápidos, que es casi todo lo que un desarrollador de IA puede esperar escuchar.
Si quieres probarlo tú mismo, los detalles son Acondicionado en Github.
Ofertas de Apple Watch
FTC: Utilizamos ingresos que ganan enlaces de afiliados para automóviles. Más.






