NVIDIA Blackwell impulsa una nueva era de computación, permite a las organizaciones de crear y ejecutar IA generativa en tiempo real en modelos de lenguaje de gran tamaño LLM de billones de parámetros.
Las nuevas tecnologías Blackwell GPU, NVLink y Resilience permiten modelos de IA a escala de billones de parámetros
SAN JOSÉ, California. - NVIDIA anunció hoy que la plataforma NVIDIA Blackwell ha llegado, impulsando una nueva era de la computación lo que permite a las organizaciones de todo el mundo crear y ejecutar IA generativa en tiempo real en modelos de lenguaje grandes de billones de parámetros a un costo y consumo de energía hasta 25 veces menor que su predecesora.
La arquitectura de GPU Blackwell cuenta con seis tecnologías transformadoras para la computación acelerada, que ayudarán a avanzar en el procesamiento de datos, simulación de ingeniería, automatización del diseño electrónico, diseño de fármacos asistido por computadora, computación cuántica y la IA generativa, todas oportunidades emergentes de la industria para NVIDIA.
"Durante tres décadas hemos perseguido la computación acelerada, con el objetivo de permitir avances transformadores como el aprendizaje profundo y la IA", dijo Jensen Huang, fundador y CEO de NVIDIA. "La IA generativa es la tecnología que define nuestro tiempo. Blackwell es el motor que impulsará esta nueva revolución industrial. Trabajando con las empresas más dinámicas del mundo, haremos realidad la promesa de la IA para todas las industrias".
Entre las muchas organizaciones que se espera que adopten Blackwell se encuentran Amazon Web Services, Dell Technologies, Google, Meta, Microsoft, OpenAI, Oracle, Tesla y xAI.
La tecnología es nombrada en honor a David Harold Blackwell, un matemático que se especializó en teoría de juegos y estadística, y el primer académico negro incluido en la Academia Nacional de Ciencias, la nueva arquitectura sucede a la arquitectura NVIDIA Hopper™, lanzada hace dos años.
Innovaciones de NVIDIA Blackwell para impulsar la computación acelerada y la IA generativa
Las seis tecnologías revolucionarias de NVIDIA Blackwell, que juntas permiten el entrenamiento de IA y la inferencia de Modelos de lenguaje largos (LLM) en tiempo real para modelos que escalan hasta 10 billones de parámetros, incluyen:
- El chip más potente del mundo: con 208 mil millones de transistores, las GPU de arquitectura Blackwell se fabrican utilizando un proceso TSMC 4NP personalizado con matrices de GPU de límite de dos retículas conectadas por un enlace de chip a chip de 10 TB / segundo en una sola GPU unificada.
- Motor de transformadores 2nda gen: impulsado por el nuevo soporte de escalado de microtensores y los algoritmos avanzados de gestión de rango dinámico de NVIDIA integrados en los marcos NVIDIA TensorRT-LLM™ y NeMo Megatron, Blackwell admitirá el doble de tamaños de cómputo y modelo con nuevas capacidades de inferencia de IA de punto flotante de 4 bits.
- NVLink de quinta generación: para acelerar el rendimiento de los modelos de IA de varios billones de parámetros y mezcla de expertos, la última iteración de NVIDIA NVLink® es bidireccional de 1.8 TB/s por GPU, lo que garantiza una comunicación fluida de alta velocidad entre hasta 576 GPU para los LLM más complejos.
- RAS engine: las GPU con tecnología Blackwell incluyen un motor dedicado para brindar confiabilidad y facilidad de servicio. Además, la arquitectura Blackwell agrega capacidades a nivel de chip para utilizar el mantenimiento preventivo basado en IA para ejecutar diagnósticos y pronosticar problemas de confiabilidad. Esto maximiza el tiempo de actividad del sistema y mejora la resiliencia para que las implementaciones de IA a gran escala se ejecuten sin interrupciones durante semanas o incluso meses a la vez y reduzcan los costos operativos.
- IA segura: las capacidades informáticas confidenciales avanzadas protegen los modelos de IA y los datos de los clientes sin comprometer el rendimiento, con soporte para nuevos protocolos de cifrado de interfaz nativa, que son fundamentales para industrias sensibles a la privacidad, como la atención médica y los servicios financieros.
- Motor de descompresión: un motor de descompresión dedicado admite los formatos más recientes, lo que acelera las consultas a la base de datos para ofrecer el mayor rendimiento en análisis de datos y ciencia de datos. En los próximos años, el procesamiento de datos, en el que las empresas gastan decenas de miles de millones de dólares al año, se acelerará cada vez más con la GPU.
Un superchip masivo
El superchip NVIDIA GB200 Grace Blackwell conecta dos GPU NVIDIA B200 Tensor Core a la CPU NVIDIA Grace a través de una interconexión de chip a chip NVLink de ultra bajo consumo de 900 GB/s.
Para obtener el máximo rendimiento de IA, los sistemas con tecnología GB200 se pueden conectar con las plataformas Ethernet NVIDIA Quantum-X800 InfiniBand y Spectrum-X800™, también presentadas esta semana, que ofrecen redes avanzadas a velocidades de hasta 800 Gb/s.
El GB200 es un componente clave de NVIDIA GB200 NVL72, un sistema de escala de rack de refrigeración líquida de varios nodos para las cargas de trabajo más intensivas en cómputo. Combina 36 superchips Grace Blackwell, que incluyen 72 GPU Blackwell y 36 CPU Grace interconectadas por NVLink de quinta generación. Además, GB200 NVL72 incluye unidades de procesamiento de datos NVIDIA BlueField-3® para permitir la aceleración de la red en la nube, almacenamiento, seguridad de confianza cero y la elasticidad de cómputo de la GPU en nubes de IA de hiperescala. El GB200 NVL72 proporciona un aumento de performance de hasta 30 veces en comparación con la misma cantidad de GPU NVIDIA H100 Tensor Core para cargas de trabajo de inferencia de LLM, y reduce el costo y el consumo de energía hasta 25 veces.
La plataforma actúa como una sola GPU con 1.4 exaflops de rendimiento de IA y 30 TB de memoria rápida, y es un bloque de construcción para el nuevo DGX SuperPOD.
NVIDIA ofrece la HGX B200, una placa para servidores que vincula ocho GPU B200 a través de NVLink para admitir plataformas de IA generativa basadas en x86. HGX B200 admite velocidades de red de hasta 400 Gb/s a través de las plataformas de red NVIDIA Quantum-2 InfiniBand y Spectrum-X Ethernet.
Fuente: Nvidia