
Según los informes, NVIDIA ha cancelado su despliegue SOCMM de primera concepción (módulo de memoria adjunta del sistema en chip) y está cambiando el enfoque de incremento a una nueva traducción conocida como SOCMM2. Esto es de acuerdo con la salida coreana Etnews citando fuentes de la industria no identificadas. Basado en una traducción cibernética, el medio de comunicación afirma que Socamm1 se detuvo posteriormente de contratiempos técnicos y que las pruebas de muestra SOCMM2 ahora están en marcha con los tres principales proveedores de memoria.
El desaseo de SOCAMM1, si es preciso, restablece lo que se esperaba que fuera un despliegue rápido de memoria basada en LPDDR modular en la pila de centros de datos de NVIDIA. Socamm se ha posicionado como una nueva clase de memoria de stop encantado de partida y disminución potencia para servidores de IA, que ofrece beneficios similares a HBM pero a un costo pequeño.
Nvidia no ha comentado sobre el noticia, y nunca comenta rumores en ningún caso, y nadie de los proveedores de memoria ha confirmado un cambio de dirección. Pero con la demanda de la memoria de IA explosionando, y la proposición de HBM se vuelve cada vez más limitada, Socamm se está formando para convertirse en un componente importante en la hoja de ruta de silicio de Nvidia, dando un brinco de Socamm1 a Socamm2 un movimiento factible.






