La tiempo DGX de Nvidia es una supercomputadora de escritorio que ejecuta modelos de inteligencia industrial de billones de parámetros sin la abundancia

La tiempo DGX de Nvidia es una supercomputadora de escritorio que ejecuta modelos de inteligencia industrial de billones de parámetros sin la abundancia

NVIDIA el lunes presentó una supercomputadora de escritorio lo suficientemente potente como para ejecutar modelos de inteligencia industrial con hasta un billón de parámetros (aproximadamente la escalera de GPT-4) sin tocar la abundancia. La máquina, señal Época DGXincluye 748 gigabytes de memoria coherente y 20 petaflops de computación en una caja que se ubica al costado de un instructor, y puede ser el producto de computación personal más importante desde que el Mac Pro diferente convenció a los profesionales creativos a desentenderse las estaciones de trabajo.

El anuncio, realizado en la reunión anual de la compañía conferencia GTC en San José, llega en un momento en el que la industria de la IA está lidiando con una tensión fundamental: los modelos más poderosos del mundo requieren una enorme infraestructura de centros de datos, pero los desarrolladores y las empresas que construyen sobre esos modelos quieren cada vez más amparar sus datos, sus agentes y su propiedad intelectual circunscrito. La DGX Station es la respuesta de Nvidia: una máquina de seis cifras que reduce la distancia entre la frontera de la IA y el escritorio de un solo ingeniero.

Lo que efectivamente significan 20 petaflops en tu escritorio

El Época DGX está construido más o menos del nuevo Superchip de escritorio GB300 Grace Blackwell Extremistaque fusiona una CPU Grace de 72 núcleos y una GPU Blackwell Extremista a través de la interconexión NVLink-C2C de Nvidia. Ese enlace proporciona 1,8 terabytes por segundo de encantado de pandilla coherente entre los dos procesadores (siete veces la velocidad de PCIe Gen 6), lo que significa que la CPU y la GPU comparten un único rama de memoria sin los cuellos de botella que normalmente paralizan el trabajo de la IA de escritorio.

Vigésimo petaflops (20 mil billones de operaciones por segundo) habrían clasificado a esta máquina entre las mejores supercomputadoras del mundo hace menos de una división. El sistema de cumbres en Laboratorio Doméstico de Oak Ridgeque ocupó el puesto número uno mundial en 2018, tuvo aproximadamente diez veces ese rendimiento, pero ocupó una sala del tamaño de dos canchas de baloncesto. Nvidia está empaquetando una fracción significativa de esa capacidad en poco que se conecta a un tomacorriente de horma.

Los 748 GB de memoria unificada son posiblemente el número más importante. Los modelos de billones de parámetros son enormes redes neuronales que deben cargarse completamente en la memoria para funcionar. Sin suficiente memoria, no importa la cantidad de velocidad de procesamiento: el maniquí simplemente no encaja. La DGX Station supera ese lista, y lo hace con una obra coherente que elimina las penalizaciones de latencia al transferir datos entre grupos de memoria de CPU y GPU.

Los agentes siempre activos necesitan hardware siempre activo

Nvidia diseñó el Época DGX explícitamente para lo que ve como la sucesivo etapa de la IA: agentes autónomos que razonan, planifican, escriben código y ejecutan tareas continuamente, no solo sistemas que responden a indicaciones. Cada anuncio importante en GTC 2026 reforzó esto "IA agente" relación, y la tiempo DGX es donde esos agentes deben construirse y ejecutarse.

El par esencia es NemoGarrauna nueva pila de código franco que Nvidia igualmente anunció el lunes. NemoClaw incluye los modelos abiertos Nemotron de Nvidia con OpenShellun tiempo de ejecución seguro que aplica medidas de seguridad basadas en políticas, redes y privacidad para agentes autónomos. Un solo comando instala toda la pila. Jensen Huang, fundador y director ejecutor de Nvidia, formuló la combinación en términos inequívocos, llamando pezuña abierta — la plataforma de agentes más amplia que admite NemoClaw — "el sistema operante para la IA personal" y comparándolo directamente con Mac y Windows.

El argumento es sencillo: las instancias de la abundancia aumentan y disminuyen según la demanda, pero los agentes siempre activos necesitan computación, memoria y estado persistentes. Una máquina debajo de su escritorio, que funciona las 24 horas del día, los 7 días de la semana con datos locales y modelos locales en el interior de una zona de pruebas de seguridad, se adapta mejor arquitectónicamente a esa carga de trabajo que una GPU alquilada en el centro de datos de otra persona. La tiempo DGX puede funcionar como una supercomputadora personal para un desarrollador en solitario o como un nodo de computación compartido para equipos, y admite configuraciones aisladas para entornos clasificados o regulados donde los datos nunca pueden salir del edificio.

Del prototipo de escritorio a la producción del centro de datos sin reescrituras

Uno de los aspectos más inteligentes del diseño de la tiempo DGX es lo que Nvidia claridad continuidad arquitectónica. Las aplicaciones creadas en la máquina migran sin problemas a los sistemas de centro de datos GB300 NVL72 de la empresa (racks de 72 GPU diseñados para fábricas de IA a hiperescala) sin escazes de rediseñar una sola lista de código. Nvidia está vendiendo un proceso integrado verticalmente: haga un prototipo en su escritorio y luego escale a la abundancia cuando esté agudo.

Esto es importante porque el viejo costo oculto en el incremento de la IA hoy en día no es la computación, sino el tiempo de ingeniería perdido al reescribir el código para diferentes configuraciones de hardware. Un maniquí adecuado en un clúster de GPU circunscrito a menudo requiere un retrabajo sustancial para implementarlo en una infraestructura de abundancia con diferentes arquitecturas de memoria, pilas de redes y dependencias de software. La tiempo DGX elimina esa fricción al ejecutar la misma pila de software de IA de NVIDIA que impulsa cada nivel de la infraestructura de Nvidia, desde el Chispa DGX al Ribera Rubin NVL72.

Nvidia igualmente amplió el DGX Spark, el hermano último de la Station, con nuevo soporte de agrupación. Hasta cuatro unidades Spark ahora pueden intervenir como un sistema unificado con escalamiento de rendimiento casi directo: un "centro de datos de escritorio" que cerca de en una mesa de conferencias sin infraestructura de rack ni ticket de TI. Para los equipos que necesitan ajustar modelos de tamaño mediano o desarrollar agentes de último escalera, Sparks agrupados ofrece una plataforma de IA departamental probable a una fracción del costo de la Época.

Los primeros compradores revelan con destino a dónde se dirige el mercado

La registro original de clientes de DGX Station mapea las industrias donde la IA está pasando más rápidamente de un cuestionario a una útil operativa diaria. Snowflake está utilizando el sistema para probar localmente su situación de entrenamiento de código franco en el Ártico. EPRIel Instituto de Investigación de Energía Eléctrica, está avanzando en el pronóstico meteorológico basado en inteligencia industrial para vigorizar la confiabilidad de la red eléctrica. Medivis está integrando modelos de verbo visual en los flujos de trabajo quirúrgicos. Microsoft Research y Cornell han implementado los sistemas para la capacitación praxis en IA a escalera.

Los sistemas están disponibles para ordenar ahora y se enviarán en los próximos meses a partir de ASUS, Tecnologías Dell, GIGABYTE, MSIy supermicrocon caballos de fuerza uniéndose más delante en el año. Nvidia no ha revelado los precios, pero los componentes GB300 y el precio histórico de DGX de la compañía sugieren una inversión de seis cifras: costosa para los estándares de las estaciones de trabajo, pero notablemente permuta en comparación con los costos de GPU en la abundancia que implica ejecutar inferencias de billones de parámetros a escalera.

La registro de modelos compatibles subraya cuán franco se ha vuelto el ecosistema de IA: los desarrolladores pueden ejecutar y ajustar OpenAI gpt-oss-120bGoogle yema 3, Qwen3, Mistral Excelso 3, Búsqueda profunda V3.2y los modelos Nemotron de Nvidia, entre otros. La tiempo DGX es independiente del maniquí por diseño: un hardware suizo en una industria donde las lealtades de los modelos cambian trimestralmente.

La verdadera logística de Nvidia: poseer cada capa de la pila de IA, desde la terreno hasta la oficina

El Época DGX no llegó en el malogrado. Era una alcoba de un amplio conjunto de GTC 2026 anuncios que mapean colectivamente la apetencia de Nvidia de suministrar computación de IA fielmente en todas las escalas físicas.

En la cima, Nvidia presentó el Plataforma Ribera Rubin (siete nuevos chips en plena producción) anclados en el armadura Ribera Rubin NVL72, que integra 72 GPU Rubin de próxima procreación y afirma tener un rendimiento de inferencia por vatio hasta 10 veces viejo en comparación con la procreación flagrante de Blackwell. El CPU actualcon 88 núcleos Olympus personalizados, apunta a la capa de orquestación que las cargas de trabajo agentes exigen cada vez más. En la frontera más lejana, Nvidia anunció el módulo espacial Ribera Rubin para centros de datos orbitales, que ofrece 25 veces más computación de IA para inferencia basada en el espacio que el H100.

Entre la terreno y la oficina, Nvidia reveló asociaciones que abarcan Adobe para la IA creativa, fabricantes de automóviles como BYD y Nissan para vehículos autónomos de Nivel 4, una coalición con Mistral AI y otros siete laboratorios para construir modelos de frontera abierta, y Dynamo 1.0, un sistema operante de inferencia de código franco ya prohijado por AWS, Azure, Google Cloud y una registro de empresas nativas de IA, incluidas Cursor y Perplexity.

El patrón es inconfundible: Nvidia quiere ser la plataforma informática (hardware, software y modelos) para cada carga de trabajo de IA, en todas partes. El Época DGX es la alcoba que llena el malogrado entre la abundancia y el individuo.

La abundancia no está muerta, pero su monopolio sobre el trabajo serio de IA está llegando a su fin

Durante los últimos primaveras, la suposición predeterminada en IA ha sido que el trabajo serio requiere instancias de GPU en la abundancia: arrendar hardware Nvidia de AWS, Azuro Nubarrón de Google. Ese maniquí funciona, pero conlleva costos reales: tarifas de salida de datos, latencia, exposición a la seguridad al destinar datos propietarios a infraestructura de terceros y la pérdida fundamental de control inherente al locación de la computadora de otra persona.

El Época DGX no acaba con la abundancia: el negocio de centros de datos de Nvidia eclipsa sus ingresos por computadoras de escritorio y se está acelerando. Pero crea una alternativa circunscrito probable para una categoría importante y creciente de cargas de trabajo. Entrenar un maniquí de frontera desde cero todavía requiere miles de GPU en un almacén. ¿Ajustar un maniquí franco de billones de parámetros sobre datos propietarios? ¿Ejecutando inferencias para un agente interno que procesa documentos confidenciales? ¿Hacer prototipos ayer de comprometerse con el pago en la abundancia? Una máquina debajo de su escritorio comienza a parecer la comicios racional.

Ésta es la elegancia estratégica del producto: expande el mercado al que se dirige Nvidia con destino a la infraestructura de inteligencia industrial personal y al mismo tiempo refuerza el negocio de la abundancia, porque todo lo que se construye localmente está diseñado para medrar a las plataformas de centros de datos de Nvidia. No se comercio de abundancia frente a escritorio. es abundancia y escritorio, y Nvidia suministra entreambos.

Una supercomputadora en cada escritorio y un agente que nunca duerme encima de ella

El inscripción que definió la revolución del PC fue "una computadora en cada escritorio y en cada hogar." Cuatro décadas posteriormente, Nvidia está actualizando la premisa con una incómoda ascensión. El Época DGX coloca un poder de supercomputación acreditado, del tipo que manejan los laboratorios nacionales, al costado de un teclado, y NemoClaw coloca encima un agente de inteligencia industrial autónomo que funciona las 24 horas del día, escribe código, claridad a herramientas y completa tareas mientras su propietario duerme.

Si ese futuro es estimulante o inquietante depende de su punto de pinta. Pero una cosa ya no es discutible: la infraestructura necesaria para construir, ejecutar y poseer IA fronteriza acaba de trasladarse de la sala de servidores al cajón del escritorio. Y la empresa que vende casi todos los chips de IA importantes del planeta se aseguró de traicionar igualmente el cajón del escritorio.

Related Posts

Cloudflare apela la multa contra la piratería y paciencia anular la ley de separación de sitios de Italia

Cloudflare está apelando una multa de 14,2 millones de euros impuesta por Italia por negarse a cumplir su ley “Piracy Shield”, que exige aislar el ataque a sitios web en…

OpenAI vara modelos GPT más pequeños: GPT-5.4 Mini y Nano

OpenAI ha introducido dos nuevas versiones más pequeñas de sus modelos GPT (GPT-5.4 mini y GPT-5.4 nano) diseñado para tiempos de respuesta más rápidos y costos más bajos, especialmente útil…

Leave a Reply

Your email address will not be published. Required fields are marked *

You Missed

Alfombrilla roja de Premios Soberano 2026 – Remolacha

Alfombrilla roja de Premios Soberano 2026 – Remolacha

Imágenes | Premios Soberano 2026

Imágenes | Premios Soberano 2026

Cloudflare apela la multa contra la piratería y paciencia anular la ley de separación de sitios de Italia

Cloudflare apela la multa contra la piratería y paciencia anular la ley de separación de sitios de Italia

Condenas de 30 y 20 primaveras de prisión para dos hombres que mataron pareja propietaria de cabaña en Nagua

Condenas de 30 y 20 primaveras de prisión para dos hombres que mataron pareja propietaria de cabaña en Nagua

Carlos Lagrange, la nueva puesta de los Yankees en un atleta dominicano

Carlos Lagrange, la nueva puesta de los Yankees en un atleta dominicano

Imágenes de la Moqueta Roja de los Premios Soberano 2026

Imágenes de la Moqueta Roja de los Premios Soberano 2026