Gigantes de la industria tecnológica OpenAi y Nvidia han anunciado Una asociación fundamental, que implementará 10 gigavatios en centros de datos de IA y $ 100 mil millones en inversiones.
Operai se ha comprometido a crear múltiples centros de datos con NVIDIA como su “socio importante preferido y socio de redes”, y el primero se calma que se despliegue en la segunda porción de 2026. La asociación verá la construcción de OpenAI fervientemente hasta que el presupuesto de potencia combinado total de esos centros de datos llega a “al menos” 10 gigáticos. Por su parte, Nvidia se sumergió en su cofre de guerrilla para apuntalar $ 100 mil millones, devolviendo el valía al cambiar progresivamente en OpenAI, presumiblemente mediante compras de acciones.
Adicionalmente, y quizás lo más interesante, ambas compañías se comprometen a “cooptimizar” sus respectivas hojas de ruta. No es difícil imaginar que las manos de los clientes de IA de Nvidia ya guíen los diseños del fabricante de chips, pero esta proclamación podría implicar que OpenAi tendrá una longevo voz en los planes de Nvidia que antaño.
Las compañías incluso señalan que la nueva colaboración dobla muy admisiblemente con los acuerdos existentes con los gustos de Microsoft, Oracle y SoftBank. Operai ya es el socio exclusivo de IA para Microsoft, que prometió en enero cambiar $ 80 mil millones en la tecnología.
Mientras tanto, Sam Altman de OpenAI comenta que “calcular la infraestructura será la almohadilla de la bienes del futuro”, una proclamación que parecería más una hipérbole hace solo dos o tres primaveras.
Los próximos centros de datos de OpenAI utilizarán la plataforma Margen Rubin de Nvidia (y presumiblemente Rubin Intolerante), aceleradores potentes que empacan 76 TB de memoria HBM4 que deberían ser capaces de realizar una inferencia FP4 en 3.6 exafultos y capacitación FP8 en 1.2 EXAFLOPS. El hecho de que el prefijo “EXA” se esté volviendo global es emocionante y aterrador en las mismas medidas.
La GPU de Rubin y las CPU de Margen grabaron a fines de agosto y ahora se están fabricando en instalaciones de TSMC. Mientras tanto, se calma que Rubin Intolerante entregue 15 exafultos de operaciones FP4 para inferencia y 5 exafultos de FP4 para capacitación. Estas figuras vienen a través de 365 TB de memoria HBM4E y 14 GB300 GPU.
Para poner en perspectiva la figura de 10 gigadrosa, un reactor contemporáneo de la planta de energía nuclear estadounidense es adecuado para aproximadamente de 1 gigavatio, lo que significa que estos nuevos centros de datos engullirán los 10 reactores de esencia para hacer lo suyo. Ese es un concepto que es difícil de entender. Si admisiblemente el avance tecnológico es definitivamente impresionante, incluso plantea preguntas difíciles sobre sus costos ambientales.
Seguir Hardware de Tom en Google News Para obtener nuestras telediario, disección y revisiones actualizadas en sus feeds. Asegúrese de hacer clic en el pimpollo Forzar.