Es tut uns ehrlich leid! Wahrscheinlich benutzen sie den Internet Explorer (IE) 10 oder 11. Leider funktionieren einige unserer Webshop-Dienste nicht mit dem IE 10 oder 11. Wir bitten sie freundlichst darum, einen modernen Browser zu benutzen.

 

 

      NVIDIA DGX B200

          Revolutionäre Leistung dank neuer Innovationen

 

 

NVIDIA DGX™ B200 ist eine einheitliche KI-Plattform für Pipelines von der Entwicklung bis zur Bereitstellung in Unternehmen jeglicher Größe und in jeder Phase ihrer KI-Reise.

Ausgestattet mit acht NVIDIA B200 Tensor Core-GPUs, die über NVIDIA® NVLink®der fünften Generation miteinander verbunden sind, bietet DGX B200 eine bahnbrechende Leistung mit der 3-fachen Trainingsleistung und der 25-fachen Inferenzleistung der Vorgängergenerationen. Durch die Nutzung der NVIDIA Blackwell-GPU-Architektur kann DGX B200 diverse Workloads bewältigen, einschließlich umfangreicher Sprachmodelle, Empfehlungssysteme und Chatbots, und ist damit ideal für Unternehmen geeignet, die ihre KI-Transformation beschleunigen möchten.

Kontakt aufnehmen:

 

NVIDIA DGX B200
Blackwell architecture

NVIDIA DGX H100
Hopper architecture

   
   GPU 8x NVIDIA Blackwell Tensor Core GPUs8x NVIDIA H100 Tensor Core GPUs
   GPU Memory1,440GB total (8x 180GB) HBM3e
640GB total (8x 80GB) HBM3
   Performance 72 petaFLOPS training and 144 petaFLOPS inference32 petaFLOPS FP8
   NVIDIA® NVSwitch 2x4x
   System Power Usage ~14.3kW max~10.2kW max 
   CPU 2 Intel® Xeon® Platinum 8570 Processors
Processors 112 Cores total, 2.10 GHz (Base),
4.00 GHz (Max Boost)
 2 Intel® Xeon® Platinum 8480C Processors
Processors 112 Cores total, 2.00 GHz (Base),
3.80 GHz (Max Boost)

   System Memory Up to 4TBUp to 2TB
   Networking 4x OSFP ports serving 8x single-port NVIDIA ConnectX-7 VPI
2x dual-port QSFP112 NVIDIA BlueField-3 DPU
 4x OSFP ports serving 8x single-port NVIDIA
ConnectX-7 VPI
2x dual-port QSFP112 NVIDIA ConnectX-7 VPI
   Management Network

 10Gb/s onboard NIC with RJ45
100Gb/s dual-port ethernet NIC
Host baseboard management controller (BMC) with RJ45

10Gb/s onboard NIC with RJ45
100Gb/s dual-port ethernet NIC
Host baseboard management controller (BMC) with RJ45
 
   Storage OS:2x 1.9TB NVMe M.2
Internal storage: 8x 3.84TB NVMe U.2
  OS:2x 1.9TB NVMe M.2
Internal storage: 8x 3.84TB NVMe U.2
   Software NVIDIA AI Enterprise – Optimized AI Software
NVIDIA Base Command – Orchestration, Scheduling, and Cluster Management
DGX OS / Ubuntu – Operating System
 NVIDIA AI Enterprise – Optimized AI Software
NVIDIA Base Command – Orchestration, Scheduling, and Cluster Management
DGX OS / Ubuntu – Operating System
   Rack Units (RU) 10 RU 8 RU
   System DimensionsHxWxL (444mm x 482mm x 897mm)
HxWxL (356mm x 482mm x 897mm)  
   Operating Temperature 5–30°C (41–86°F) 5–30°C (41–86°F)
   Enterprise SupportThree-year Enterprise Business-Standard Support for hardware and software
24/7 Enterprise Support portal access 
 Three-year Enterprise Business-Standard Support for hardware and software
24/7 Enterprise Support portal access
  DatenblattDatenblatt 

Leistung der nächsten Generation

Echtzeit-Inferenz für Large Language Models

Neue Maßstäbe bei der KI-Trainingsleistung

throughput-chart
training-speed-up-chart

Die projizierte Leistung kann Änderungen unterliegen. Token-to-Token-Latenz (TTL) = 50 ms in Echtzeit, erste Token-Latenz (FTL) = 5 s, Eingabesequenzlänge = 32.768, Ausgabesequenzlänge = 1.028, 8x Acht-Wege-DGX H100-GPUs mit Luftkühlung vs. 1x Acht-Wege-DGX B200 mit Luftkühlung, pro GPU-Leistungsvergleich​.

Änderungen der prognostizierten Leistung vorbehalten. Leistung von 32.768 GPUs, 4.096 Acht-Wege-DGX H100-Cluster mit Luftkühlung: 400G IB-Netzwerk, 4.096 Acht-Wege-DGX B200-Cluster mit Luftkühlung: 400G IB-Netzwerk.

Vom einzelnen Server zum NVIDIA DGX B200 BasePOD oder B200 SuperPOD

Oder alternativ gleich zu der DGX GB200 NVL72

 

DGX B200 Systeme können mit InfiniBand geclustert werden und ermöglichen dadurch effizientes Multi-GPU-Computing. Man spricht dann von einem DGX B200 BasePOD oder DGX B200 SuperPOD.

Große Sprachmodelle und viele weitere Anwendungen profitieren stark von der extrem schnellen Vernetzung der GPUs. Bei der DGX GB200 NVL72 sind 72 B200 GPUs mit NVLink geclustert, als wäre es eine einzige GPU.

DGX B200 BasePOD


2-16 Nodes (DGX B200)

8 (NVLink)

NDR InfiniBand
bis 128 GPUs

DGX B200 SuperPOD


32 Nodes (DGX B200)
(one Scalable Unit)

8 (NVLink)

NDR InfiniBand
bis 256 GPUs

DGX GB200 NVL72


bis zu 8 Nodes/Racks
(DGX GB200 NVL72)

72 (NVLink)

NVLink
bis 576 GPUs

NVIDIA DGX SuperPOD™ mit DGX B200 und GB200 NVL72 Systemen bietet führenden Unternehmen die Möglichkeit, eine große, schlüsselfertige Infrastruktur bereitzustellen, die sich auf die KI-Expertise von NVIDIA stützt.

Haben Sie Fragen zu der NVIDIA DGX B200, helfen oder geben wir Ihnen dazu gerne eine Auskunft. Gerne können Sie auch den Live Chat Button rechts unten auf der Webseite nutzen.
Kontakt:   
Tel: +49 40 300672 - 0    |   Fax: +49 40 300672 - 11   |   E-Mail: info[at]delta.de