Deep Learning Test Center

Deep Learning Test Center

Die NVIDIA DGX B200 ist eine einheitliche KI-Plattform. Ausgestattet mit acht NVIDIA B200 Tensor Core-GPUs, die über NVIDIA NVLink der fünften Generation miteinander verbunden sind, bietet die DGX B200 eine bahnbrechende Leistung.

Die NVIDIA Blackwell Architektur verleiht der DGX B200 nie dagewesene Leistung im Deep Learning Training und Inferencing. Zwei x86 CPUs, 30TB NVMe Speicher und 12x 200/400G Ethernet/InfiniBand Anschlüsse runden die DGX B200 ab.

 
Im Rahmen der Elite Partnerschaft mit NVIDIA bietet DELTA für einen begrenzten Zeitraum Tests auf der DGX B200 via Remotezugang an. Wenn Sie an einem Test Interesse haben und entsprechende Projekte planen, können wir Sie für einen Test einplanen. Bitte füllen Sie das Anfrageformular für einen kostenlosen DGX B200 Benchmark aus oder schicken Sie uns eine E-Mail. Zwecks Speicherung und Verarbeitung ihrer Testdaten stehen unterschiedliche Storage Lösungen bereit, die ihren Wünschen entsprechend in die Testumgebung via NDR InfiniBand eingebunden werden können. Natürlich nehmen wir auch gerne eine individuelle Softwarekonfiguration vor.

Falls die DGX B200 nicht in Ihr Budget passen sollte, können wir Ihnen nach Rücksprache auch andere Systeme aus unserem Portfolio für einen Remote Zugang zur Verfügung stellen. Bitte schicken Sie uns eine E-Mail mit ihren Projektdaten. Wir melden uns dann bei Ihnen, ob wir ein entsprechendes System für Testzwecke bereitstellen können.
 

Schnellere Lösung größerer, komplexerer Datenwissenschaftsprobleme

Bereitstellung der Infrastruktur und operatives Skalieren der KI

Verkürzung der Zeit für Erkenntnisse und Beschleunigung der Kapitalrendite der KI


  FUNKTIONSWEISE DER MULTI-INSTANCE GPU (MIG) TECHNOLOGIE

Ohne MIG konkurrieren verschiedene Aufgaben, die auf demselben Grafikprozessor ausgeführt werden, wie unterschiedliche KI-Inferenzanforderungen, um dieselben Ressourcen wie beispielsweise die Speicherbandbreite. Durch eine Aufgabe, die mehr Speicherbandbreite beansprucht, steht für andere Aufgaben weniger zur Verfügung, sodass mehrere Aufgaben ihre Latenz-Zielwerte verfehlen.

Mit MIG werden Aufgaben gleichzeitig in verschiedenen Instanzen ausgeführt, jeweils mit dedizierten Ressourcen für Rechenleistung, Arbeitsspeicher und Speicherbandbreite, was zu einer vorhersehbaren Leistung mit hoher Servicequalität und maximaler GPU-Auslastung führt.

Ein NVIDIA B200-Grafikprozessor kann in verschiedene MIG-Instanzen aufgeteilt werden. Ein Administrator könnte beispielsweise sieben Instanzen mit je 23 GB Speicher, 4 Instanzen mit je 45 GB oder zwei Instanzen mit je 90 GB erstellen. Auf diese Weise können Systemadministratoren für unterschiedliche Arten von Workloads Grafikprozessoren mit der richtigen Größe bereitstellen.

MIG-Instanzen können auch dynamisch neu konfiguriert werden, sodass Administratoren die GPU-Ressourcen an wechselnde Nutzer- und Geschäftsanforderungen anpassen können. Sieben MIG-Instanzen können z. B. tagsüber zur Inferenz mit geringem Durchsatz verwendet werden und für das Deep-Learning-Training in der Nacht zu einer großen MIG-Instanz umkonfiguriert werden

Gerne besprechen wir alle weiteren Konfiguration im persönlichen Gespräch.
Anschließend wird das Test Setup definiert und Sie erhalten ihren persönlichen Zugang zu dem gewünschten System.

Haben Sie Fragen zu unserem Test Center?
Wir helfen Ihnen gerne weiter. Rufen Sie uns an, schicken Sie eine Mail oder nutzen Sie uner Anfrageformular: 
NVIDIA DGX Anfrage


Kontakt:
   Tel: +49 40 300672 - 0    |   Fax: +49 40 300672 - 11   |   E-Mail: info[at]delta.de

 

Ansicht als Raster Liste

4 Artikel

pro Seite
In absteigender Reihenfolge
  1. D20z-M4-ZG-8xGPU
    D20z-M4-ZG-8xGPU

    Ab 9.959,33 €

    AMD Dual EPYC Hochleistungs-Server:

    • 4HE Rack-Chassis (luftgekühlt)
    • redundante 4x 2000W Netzteile
    • 24x 2.5" HotSwap für SATA/SAS/NVMe(Gen4)
    • 2x AMD EPYC™ 9005 (max. 400 Watt TDP)
    • 24 DIMM Slots (max. 3072GB DDR5-6000)
    • 2x 10GBase-T 10GbE Ports
    • bis zu 9x PCI-E 5.0 x16 Slots (FHFL)
    • bis zu 8x GPU/MIC (max. 400 Watt TDP)
  2. NVIDIA DGX H200 1128GB
    NVIDIA DGX H200 1128GB

    Ab 284.032,87 €

    Die NVIDIA DGX H200 ist das erste System, das mit bahnbrechenden, durch NVIDIA Hopper™ angetriebenen H200-Grafikprozessoren bestückt ist und über NVIDIA NVLink™ 4.0 vernetzt ist.

    • 32 petaFLOPS FP8
    • ~10.2 kW max (6x redundant power supplies)
    • 2x Intel® Xeon® Platinum 8480C CPUs
    • Up to 2TB System +  1128GB GPU Memory
    • NVMe Storage : 2x 1.9TB + 8x 3.84TB
    • Up to 200Gb/s InfiniBand/Ethernet
    • 8x NVIDIA SXM H200 141GB GPUs (max. 700 Watt TDP)
  3. NEU NVIDIA DGX B200 1440GB
    NVIDIA DGX B200 1440GB

    Ab 306.533,67 €

    Die NVIDIA DGX B200 ist eine einheitliche KI-Plattform. Ausgestattet mit acht NVIDIA B200 Tensor Core-GPUs, die über NVIDIA NVLink der fünften Generation miteinander verbunden sind, bietet die DGX B200 eine bahnbrechende Leistung.

    • 72 petaFLOPS training + 144 petaFLOPS inference
    • ~14.3 kW max (6x redundant power supplies)
    • 2x Intel® Xeon® Platinum 8570 CPUs 
    • Up to 4TB System + 1440GB GPU Memory
    • NVMe Storage : 2x 1.9TB + 8x 3.84TB
    • Up to 400Gb/s InfiniBand/Ethernet
    • 8x NVIDIA SXM B200 180GB GPUs (max. 1000 Watt TDP)
  4. NEU NVIDIA DGX B300 2304GB
    NVIDIA DGX B300 2304GB

    Ab 360.255,76 €

    Die NVIDIA DGX B300 ist eine einheitliche KI-Plattform. Ausgestattet mit acht NVIDIA B300 Tensor Core-GPUs, die über NVIDIA NVLink der fünften Generation miteinander verbunden sind, bietet die DGX B300 eine bahnbrechende Leistung.

    • 72 petaFLOPS training + 144 petaFLOPS inference
    • ~14.3kW max (6x redundant power supplies)
    • 2x Intel® Xeon® Platinum 6776P CPUs
    • Up to 4TB System + 2304GB GPU Memory
    • NVMe Storage : 2x 1.9TB + 8x 3.84TB 
    • Up to 800Gb/s InfiniBand/Ethernet
    • 8x NVIDIA SXM B300 288GB GPUs (max. 1400 Watt TDP)
Ansicht als Raster Liste

4 Artikel

pro Seite
In absteigender Reihenfolge