
- El superchip de 1700 W de Meta ofrece 30 PFLOP y 512 GB de memoria HBM
- MTIA 450 y 500 priorizan la inferencia sobre las cargas de trabajo previas al entrenamiento
- Las futuras generaciones de MTIA admitirán cargas de trabajo de clasificación y inferencia GenAI
Meta está mejorando su infraestructura de IA con una cartera de chips MTIA personalizados diseñados específicamente para cargas de trabajo de inferencia en sus aplicaciones.
La empresa está desarrollando un superchip de 1700 W con capacidad para 30 PFLOP y 512 GB de HBM, integrado en la misma infraestructura MTIA para manejar tareas de inferencia a escalera.
Curiosamente, está logrando esta correr sin ningún de sus amigos, no Nvidia, AMD, Intel o ARM.
El artículo continúa a continuación.
De acuerdo a Metacientos de miles de chips MTIA ya están implementados en producción, respaldando cargas de trabajo de clasificación, recomendaciones y publicación de anuncios.
Estos chips son parte de un sistema de pila completa optimizado para los requisitos específicos de Meta, logrando una decano eficiencia informática que el hardware de uso universal para las cargas de trabajo previstas.
A diferencia de otros hiperescaladores como Google, AWS, Microsoft y Apple, Meta sigue una logística de silicio totalmente personalizada.
Este diseño prioriza la eficiencia sobre el uso de propósito universal, lo que permite que la inferencia se ejecute de guisa más rentable que en las GPU o CPU convencionales.
Mantiene la compatibilidad con software estereotipado de la industria como PyTorch, vLLM y Triton.
La hoja de ruta MTIA de Meta anticipa cuatro nuevas generaciones de chips durante los próximos dos abriles, incluido el MTIA 300, actualmente en producción para clasificación y recomendaciones.
Las generaciones futuras (MTIA 400, 450 y 500) ampliarán el soporte para cargas de trabajo de inferencia GenAI, con diseños capaces de adaptarse a la infraestructura de rack existente.
Meta enfatiza el progreso rápido e iterativo, lanzando nuevos chips aproximadamente cada seis meses a través de diseños modulares y reutilizables.
El diseño modular permite que nuevos chips se coloquen en los sistemas de chasis existentes, lo que reduce la fricción de implementación y acelera el tiempo de producción.
El enfoque permite a la empresa adoptar técnicas de inteligencia sintético emergentes y mejoras de hardware más rápido que sus competidores, que normalmente realizan ciclos de uno a dos abriles por vivientes.
A diferencia de la mayoría de los chips de IA convencionales que priorizan el entrenamiento previo de GenAI a gran escalera y luego se adaptan para la inferencia, los MTIA 450 y 500 de Meta se centran primero en cargas de trabajo de inferencia.
Los chips igualmente pueden respaldar otras tareas, incluida la capacitación en clasificación y recomendaciones o la capacitación GenAI, pero su diseño los mantiene atentos al crecimiento anticipado de la demanda de inferencia.
El diseño a nivel de sistema de Meta se alinea con los estándares de Open Compute Project, lo que permite una implementación sin fricciones en los centros de datos y al mismo tiempo mantiene una adhesión eficiencia informática.
La compañía reconoce que ningún chip puede manejar todo el espectro de sus cargas de trabajo de IA.
Es por eso que está implementando múltiples generaciones de MTIA anejo con silicio complementario de otros proveedores.
La logística apunta a equilibrar la flexibilidad y el desempeño y al mismo tiempo acelerar la innovación en dirección a la superinteligencia personal.
Siga TechRadar en Google News y agréganos como fuente preferida para aceptar noticiario, reseñas y opiniones de nuestros expertos en sus feeds. ¡Asegúrate de hacer clic en el rama Seguir!
Y por supuesto igualmente puedes Siga TechRadar en TikTok para noticiario, reseñas, unboxings en forma de video y reciba actualizaciones periódicas de nuestra parte en WhatsApp igualmente.






