
Cómputo para acelerar los centros de datos y fabricas IA en el CES 2026
El codiseño entre los dispositivos CPU NVIDIA Vera, la GPU Rubin, el switch NVLink 6, SuperNIC ConnectX-9, la DPU BlueField-4 y el conmutador Ethernet Spectrum-6 reduce drásticamente el tiempo de entrenamiento y el costo de generación de tokens de inferencia
NVIDIA presentó la próxima generación de IA con el lanzamiento de la plataforma NVIDIA Rubin, que incluye seis nuevos chips diseñados para ofrecer un increíble supercomputador de IA. NVIDIA Rubin establece un nuevo estándar para crear, implementar y proteger los sistemas de IA más grandes y avanzados del mundo al menor costo, con el fin de acelerar la adopción generalizada de la IA.
La plataforma Rubin utiliza un diseño conjunto extremo en los seis chips (la CPU NVIDIA Vera, NVIDIA Rubin GPU, NVIDIA NVLink 6 Switch, NVIDIA ConnectX-9 SuperNIC, NVIDIA BlueField-4 DPU y NVIDIA Spectrum-6 Ethernet Switch para reducir drásticamente el tiempo de entrenamiento y los costos de los tokens de inferencia.
La plataforma Rubin, que lleva el nombre de Vera Florence Cooper Rubin, la pionera astrónoma estadounidense cuyos descubrimientos transformaron la comprensión que la humanidad tenía del universo, cuenta con la solución a escala de rack NVIDIA Vera Rubin NVL72 y el sistema NVIDIA HGX Rubin NVL8 .
La plataforma Rubin presenta cinco innovaciones en tecnología, entre las que se incluyen las últimas generaciones de la tecnología de interconexión NVIDIA NVLink, Transformer Engine, Confidential Computing y RAS Engine, así como la CPU NVIDIA Vera. Estos avances acelerarán la IA agencial, el razonamiento avanzado y la inferencia de modelos de mezcla de expertos ( mixture-of-experts MoE) a gran escala con un costo por token hasta 10 veces menor que el de la plataforma NVIDIA Blackwell. En comparación con su predecesora, la plataforma NVIDIA Rubin entrena modelos MoE con cuatro veces menos GPU para acelerar la adopción de la IA.
Alcance del ecosistema
Entre los principales laboratorios de IA, proveedores de servicios en la nube, fabricantes de computadoras y empresas emergentes del mundo que se espera que adopten Rubin se encuentran Amazon Web Services (AWS), Anthropic, Black Forest Labs, Cisco, Cohere, CoreWeave, Cursor, Dell Technologies, Google, Harvey, HPE, Lambda, Lenovo, Meta, Microsoft, Mistral AI, Nebius, Nscale, OpenAI, OpenEvidence, Oracle Cloud Infrastructure (OCI), Perplexity, Runway, Supermicro, Thinking Machines Lab y xAI.
Mark Zuckerberg, fundador y director ejecutivo de Meta: “La plataforma Rubin de NVIDIA promete ofrecer el cambio radical en rendimiento y eficiencia necesario para implementar los modelos más avanzados a miles de millones de personas”.
Diseñada para escalar la inteligencia
Los modelos de IA agencial y de razonamiento, junto con las cargas de trabajo de generación de video de última generación, están redefiniendo los límites de la computación. La resolución de problemas de varios pasos requiere que los modelos procesen, razonen y actúen a lo largo de largas secuencias de tokens. Diseñada para satisfacer las demandas de las complejas cargas de trabajo de IA, las cinco tecnologías innovadoras de la plataforma Rubin incluyen:
NVIDIA NVLink de sexta generación: ofrece la comunicación rápida y fluida entre GPU que requieren los enormes modelos MoE actuales. Cada GPU ofrece 3,6 TB/s de ancho de banda, mientras que el rack Vera Rubin NVL72 proporciona 260 TB/s, más ancho de banda que todo Internet. Con computación integrada en la red para acelerar las operaciones colectivas, así como nuevas funciones para mejorar la facilidad de mantenimiento y la resiliencia, el conmutador NVIDIA NVLink 6 permite un entrenamiento y una inferencia de IA más rápidos y eficientes a gran escala.
CPU NVIDIA Vera: Diseñada para el razonamiento agencial, NVIDIA Vera es la CPU más eficiente energéticamente para fábricas de IA a gran escala. La CPU NVIDIA está construida con 88 núcleos Olympus personalizados de NVIDIA, compatibilidad total con Armv9.2 y conectividad NVLink-C2C ultrarrápida. Vera ofrece un rendimiento excepcional, un gran ancho de banda y una eficiencia líder en el sector para dar soporte a una amplia gama de cargas de trabajo de los centros de datos modernos.
GPU NVIDIA Rubin: con un motor Transformer de tercera generación con compresión adaptativa acelerada por hardware, la GPU Rubin ofrece 50 petaflops de computación NVFP4 para la inferencia de IA.
Computación confidencial NVIDIA de tercera generación: Vera Rubin NVL72 es la primera plataforma a escala de rack que ofrece computación confidencial NVIDIA, que mantiene la seguridad de los datos en los dominios de CPU, GPU y NVLink, protegiendo los modelos propietarios, las cargas de trabajo de entrenamiento y de inferencia más grandes del mundo.
Motor RAS de segunda generación: la plataforma Rubin, que abarca GPU, CPU y NVLink, cuenta con comprobaciones de estado en tiempo real, tolerancia a fallos y mantenimiento proactivo para maximizar la productividad del sistema. El diseño modular y sin cables de la bandeja del bastidor permite un montaje y un mantenimiento hasta 18 veces más rápidos que Blackwell.
Almacenamiento nativo
NVIDIA Rubin presenta NVIDIA Inference Context Memory Storage Platform, una nueva clase de infraestructura de almacenamiento nativa para IA diseñada para escalar el contexto de inferencia a escala gigabit.
Impulsada por NVIDIA BlueField-4, la plataforma permite compartir y reutilizar de manera eficiente los datos de la caché de clave-valor en toda la infraestructura de IA, lo que mejora la capacidad de respuesta y el rendimiento, al tiempo que permite un escalado predecible y energéticamente eficiente de la IA agencial.
Diferentes formas para diferentes cargas de trabajo
NVIDIA Vera Rubin NVL72 ofrece un sistema unificado y seguro que combina 72 GPU NVIDIA Rubin, 36 CPU NVIDIA Vera, NVIDIA NVLink 6, NVIDIA ConnectX-9 SuperNIC y NVIDIA BlueField-4 DPU.
NVIDIA también ofrecerá la plataforma NVIDIA HGX Rubin NVL8, una placa de servidor que conecta ocho GPU Rubin a través de NVLink para admitir plataformas de IA generativa basadas en x86. La plataforma HGX Rubin NVL8 acelera el entrenamiento, la inferencia y la computación científica para cargas de trabajo de IA y computación de alto rendimiento.
NVIDIA DGX SuperPOD sirve como referencia para implementar sistemas basados en Rubin a gran escala, integrando los sistemas NVIDIA DGX Vera Rubin NVL72 o DGX Rubin NVL8 con DPU NVIDIA BlueField-4, SuperNIC NVIDIA ConnectX-9, redes NVIDIA InfiniBand y el software NVIDIA Mission Control.
Redes Ethernet de última generación
Las redes Ethernet avanzadas y el almacenamiento son componentes de la infraestructura de IA fundamentales para mantener los datacenters o centros de datos funcionando a plena velocidad, mejorar el rendimiento y la eficiencia, y reducir los costos.
NVIDIA Spectrum-6 Ethernet es la próxima generación de Ethernet para redes de IA, diseñada para ampliar las fábricas de IA basadas en Rubin con mayor eficiencia y resistencia, y habilitada por circuitos de comunicación SerDes de 200G, óptica copackaged y estructuras optimizadas para IA.
En conjunto, estas innovaciones definen la próxima generación de la plataforma Ethernet NVIDIA Spectrum-X, diseñada con un codiseño extremo para Rubin con el fin de habilitar fábricas de IA a gran escala y preparar el camino para futuros entornos con millones de GPU.

Preparación de Rubin
NVIDIA Rubin se encuentra en plena producción, y sus productos estarán disponibles a través de socios en la segunda mitad de 2026.
Entre los primeros proveedores de nube que implementarán instancias basadas en Vera Rubin en 2026 se encuentran AWS, Google Cloud, Microsoft y OCI, así como los socios de NVIDIA Cloud CoreWeave, Lambda, Nebius y Nscale.
Microsoft implementará los sistemas a escala de rack NVIDIA Vera Rubin NVL72 como parte de los centros de datos de IA de próxima generación, incluidas las futuras superfábricas de IA de Fairwater.
Diseñada para ofrecer una eficiencia y un rendimiento sin precedentes para las cargas de trabajo de entrenamiento e inferencia, la plataforma Rubin sentará las bases para las capacidades de IA en la nube de próxima generación de Microsoft. Microsoft Azure ofrecerá una plataforma altamente optimizada que permitirá a los clientes acelerar la innovación en aplicaciones empresariales, de investigación y de consumo.
Además, se espera que Cisco, Dell, HPE, Lenovo y Supermicro ofrezcan una amplia gama de servidores basados en productos Rubin.
Laboratorios de IA como Anthropic, Black Forest, Cohere, Cursor, Harvey, Meta, Mistral AI, OpenAI, OpenEvidence, Perplexity, Runway, Thinking Machines Lab y xAI están apostando por la plataforma NVIDIA Rubin para entrenar modelos más grandes y capaces, y para dar servicio a sistemas multimodales de contexto largo con menor latencia y costo que con las generaciones anteriores de GPU.
La plataforma Rubin marca la tercera generación de la arquitectura a escala de rack de NVIDIA, con más de 80 socios del ecosistema NVIDIA MGX.
Para desbloquear esta densidad, Red Hat ha anunciado hoy una colaboración ampliada con NVIDIA para ofrecer una pila de IA completa optimizada para la plataforma NVIDIA Rubin con la cartera de nube híbrida de Red Hat, que incluye Red Hat Enterprise Linux, Red Hat OpenShift y Red Hat AI. Estas soluciones son utilizadas por la gran mayoría de las empresas de la lista Fortune Global 500.
Fuente: NVIDIA