NVIDIA DGX™ B200 ist eine einheitliche KI-Plattform für Pipelines von der Entwicklung bis zur Bereitstellung in Unternehmen jeglicher Größe und in jeder Phase ihrer KI-Reise.

Ausgestattet mit acht NVIDIA B200 Tensor Core-GPUs, die über NVIDIA® NVLink®der fünften Generation miteinander verbunden sind, bietet DGX B200 eine bahnbrechende Leistung mit der 3-fachen Trainingsleistung und der 25-fachen Inferenzleistung der Vorgängergenerationen. Durch die Nutzung der NVIDIA Blackwell-GPU-Architektur kann DGX B200 diverse Workloads bewältigen, einschließlich umfangreicher Sprachmodelle, Empfehlungssysteme und Chatbots, und ist damit ideal für Unternehmen geeignet, die ihre KI-Transformation beschleunigen möchten.

Kontakt aufnehmen / Preis anfragen:

 

NVIDIA DGX B200
Blackwell architecture

NVIDIA DGX H200
Hopper architecture

NVIDIA DGX H100
Hopper architecture

    
   GPU 8x NVIDIA Blackwell Tensor Core GPUs8x NVIDIA Hopper Tensor Core GPUs8x NVIDIA Hopper Tensor Core GPUs
   GPU Memory1,440GB total (8x 180GB) HBM3e
1,128GB total (8x 141GB) HBM3e640GB total (8x 80GB) HBM3
   Performance 72 petaFLOPS training and 144 petaFLOPS inference32 petaFLOPS FP8
32 petaFLOPS FP8
   NVIDIA® NVSwitch 2x4x4x
   System Power Usage ~14.3kW max~10.2kW max ~10.2kW max 
   CPU 2 Intel® Xeon® Platinum 8570 Processors
Processors 112 Cores total, 2.10 GHz (Base),
4.00 GHz (Max Boost)
 2 Intel® Xeon® Platinum 8480C Processors
Processors 112 Cores total, 2.00 GHz (Base),
3.80 GHz (Max Boost)
 2 Intel® Xeon® Platinum 8480C Processors
Processors 112 Cores total, 2.00 GHz (Base),
3.80 GHz (Max Boost)

   System Memory Up to 4TBUp to 2TB Up to 2TB
   Networking 4x OSFP ports serving 8x single-port NVIDIA ConnectX-7 VPI
2x dual-port QSFP112 NVIDIA BlueField-3 DPU
 4x OSFP ports serving 8x single-port NVIDIA
ConnectX-7 VPI
2x dual-port QSFP112 NVIDIA ConnectX-7 VPI
 4x OSFP ports serving 8x single-port NVIDIA
ConnectX-7 VPI
2x dual-port QSFP112 NVIDIA ConnectX-7 VPI
   Management Network

 10Gb/s onboard NIC with RJ45
100Gb/s dual-port ethernet NIC
Host baseboard management controller (BMC) with RJ45

10Gb/s onboard NIC with RJ45
100Gb/s dual-port ethernet NIC
Host baseboard management controller (BMC) with RJ45
 
10Gb/s onboard NIC with RJ45
100Gb/s dual-port ethernet NIC
Host baseboard management controller (BMC) with RJ45
 
   Storage OS:2x 1.9TB NVMe M.2
Internal storage: 8x 3.84TB NVMe U.2
  OS:2x 1.9TB NVMe M.2
Internal storage: 8x 3.84TB NVMe U.2
  OS:2x 1.9TB NVMe M.2
Internal storage: 8x 3.84TB NVMe U.2
   Software NVIDIA AI Enterprise – Optimized AI Software
NVIDIA Base Command – Orchestration, Scheduling, and Cluster Management
DGX OS / Ubuntu – Operating System
NVIDIA AI Enterprise – Optimized AI Software
NVIDIA Base Command – Orchestration, Scheduling, and Cluster Management
DGX OS / Ubuntu – Operating System
 NVIDIA AI Enterprise – Optimized AI Software
NVIDIA Base Command – Orchestration, Scheduling, and Cluster Management
DGX OS / Ubuntu – Operating System
   Rack Units (RU) 10 RU8 RU
 8 RU
   System DimensionsHxWxL (444mm x 482mm x 897mm)
HxWxL (356mm x 482mm x 897mm)  HxWxL (356mm x 482mm x 897mm)  
   Operating Temperature 5–30°C (41–86°F) 5–30°C (41–86°F) 5–30°C (41–86°F)
   Enterprise SupportThree-year Enterprise Business-Standard Support for hardware and software
24/7 Enterprise Support portal access 
Three-year Enterprise Business-Standard Support for hardware and software
24/7 Enterprise Support portal access
 Three-year Enterprise Business-Standard Support for hardware and software
24/7 Enterprise Support portal access
  Datenblatt DatenblattDatenblatt 

Leistung der nächsten Generation

Echtzeit-Inferenz für Large Language Models

Neue Maßstäbe bei der KI-Trainingsleistung

throughput-chart
training-speed-up-chart

Die projizierte Leistung kann Änderungen unterliegen. Token-to-Token-Latenz (TTL) = 50 ms in Echtzeit, erste Token-Latenz (FTL) = 5 s, Eingabesequenzlänge = 32.768, Ausgabesequenzlänge = 1.028, 8x Acht-Wege-DGX H100-GPUs mit Luftkühlung vs. 1x Acht-Wege-DGX B200 mit Luftkühlung, pro GPU-Leistungsvergleich​.

Änderungen der prognostizierten Leistung vorbehalten. Leistung von 32.768 GPUs, 4.096 Acht-Wege-DGX H100-Cluster mit Luftkühlung: 400G IB-Netzwerk, 4.096 Acht-Wege-DGX B200-Cluster mit Luftkühlung: 400G IB-Netzwerk.

Vom einzelnen Server zum NVIDIA DGX B200 BasePOD oder B200 SuperPOD

Oder alternativ gleich zu der DGX GB200 NVL72

 

DGX B200 Systeme können mit InfiniBand geclustert werden und ermöglichen dadurch effizientes Multi-GPU-Computing. Man spricht dann von einem DGX B200 BasePOD oder DGX B200 SuperPOD.

Große Sprachmodelle und viele weitere Anwendungen profitieren stark von der extrem schnellen Vernetzung der GPUs. Bei der DGX GB200 NVL72 sind 72 B200 GPUs mit NVLink geclustert, als wäre es eine einzige GPU.

DGX B200 BasePOD


2-16 Nodes (DGX B200)

8 (NVLink)

NDR InfiniBand
bis 128 GPUs

DGX B200 SuperPOD


32 Nodes (DGX B200)
(one Scalable Unit)

8 (NVLink)

NDR InfiniBand
bis 256 GPUs

DGX GB200 NVL72


bis zu 8 Nodes/Racks
(DGX GB200 NVL72)

72 (NVLink)

NVLink
bis 576 GPUs

NVIDIA DGX SuperPOD™ mit DGX B200 und GB200 NVL72 Systemen bietet führenden Unternehmen die Möglichkeit, eine große, schlüsselfertige Infrastruktur bereitzustellen, die sich auf die KI-Expertise von NVIDIA stützt.

Haben Sie Fragen zu der NVIDIA DGX B200, helfen oder geben wir Ihnen dazu gerne eine Auskunft. Gerne können Sie auch den Live Chat Button rechts unten auf der Webseite nutzen.
Kontakt:   
Tel: +49 40 300672 - 0    |   Fax: +49 40 300672 - 11   |   E-Mail: info[at]delta.de