Algunos clientes de Apple han sido tomados por sorpresa recientemente correcto a los plazos de entrega de pedidos en varios modelos de Mac con cuotas de memoria unificada mejoradas, lo que podría deberse en gran medida a la inmensa popularidad de OpenClaw, el agente de IA de código hendido administrado localmente que está arrasando en Internet y enviando a los usuarios a apañarse Mac para ejecutar la IA.
Si admisiblemente aún puede obtener unidades del maniquí saco de MacBook Air, iMac, M4 Mac mini y otros modelos básicos el mismo día, renovar la memoria ahora puede aumentar los tiempos de prórroga de entrega hasta en tres semanas.
Profundiza con TH Premium: Memoria
Sin retención, optar por la longevo capacidad de memoria posible en los modelos de gradación reincorporación aumenta considerablemente el tiempo de prórroga, con el M3 Intolerante Mac Studio con 512 GB de memoria unificada tardará entre cinco y seis semanas en entregarse.
Alex Finn, fundador y director ejecutor de Creator Buddy, vinculó esta escasez en su publicación X con la demanda impulsada por “el primer serio agente de inteligencia sintético del mundo” en remisión a OpenClaw (anteriormente Clawdbot/Moltbot).
Poco prócer está sucediendo. Primeros Mac Mini. Ahora Mac Studios. Completamente fatigado. Cuando compré 2 Mac Studios hace un mes mi prórroga fue de 14 días. Ahora la prórroga es de 54 días. El mundo ha cambiado más en el final mes que en los 100 primaveras anteriores combinados. El primer mundo… https://t.co/GMDgLeQzQu13 de febrero de 2026
Si admisiblemente los centros de datos están ávidos de GPU de IA y algunas nuevas empresas utilizan configuraciones de GPU de juegos múltiples para entrenar modelos de IA, no son ideales para la IA de agentes personales ejecutada localmente. Esto es especialmente cierto si utiliza un enorme maniquí de 70 mil millones de parámetros en FP16 para su agente, lo que requeriría rodeando de 140 GB de memoria solo para pesos, según el inversor en IA Ben Pouladian. Eso significa que no junto a en un solo RTX 5090 con 32 GB de VRAM, e incluso si logras conectar cinco tarjetas gráficas para un total de 160 GB de memoria, aún estás constreñido por el cuello de botella de PCIe.
La cimentación de Memoria Unificada de Apple soluciona ese problema. Aunque HBM sigue siendo mucho más rápido que el LPDDR utilizado en Mac y MacBook, el hecho de que todas las unidades de procesamiento (CPU, GPU y NPU) compartan la misma memoria significa que no tienen que banderillear con cuellos de botella de PCIe ni requieren tecnologías similares a NVLink, que normalmente solo se encuentra en tarjetas gráficas de clase de centro de datos.
El mundo se está poniendo al día con lo que hemos estado haciendo desde 2024. Durante los últimos 2 primaveras, en Eternal AI, hemos estado ejecutando clústeres y clústeres de Mac Studios. Estos clústeres de Mac son perfectos para tareas agentes de larga duración y LLM privados locales. Bienvenido a casa, @openclaw 🦞 https://t.co/LBMEeD5Cwi pic.twitter.com/EIPn7B6rqR13 de febrero de 2026
Conveniente a esto, cada vez más personas que desean ejecutar su propio agente de IA lugar están comprando modelos de Mac con mucha memoria. Esto no se limita a las unidades M3 Intolerante Mac Studio con 512 GB de memoria. Incluso los Mac mini y MacBook Pro con memoria mejorada ahora tienen un tiempo de prórroga de dos a tres semanas.
No podemos asegurar definitivamente que estos retrasos sean causados enteramente por un gran número de personas que compran estos dispositivos para ejecutar sus propios modelos de IA, ya que el CEO de Apple, Tim Cook, admitió que está buscando suministro de memoria para satisfacer la reincorporación demanda de los clientes. Sin retención, la presión adicional por parte del consumidor definitivamente no ayudará con la escasez de chips de memoria que, por el momento, está impulsada principalmente por los hiperescaladores de IA y los compradores institucionales.
Seguir Hardware de Tom en Google Newso agréganos como fuente preferidapara admitir nuestras últimas parte, descomposición y reseñas en sus feeds.





