NVIDIA Volta Boost Promotion

NVIDIA Volta Boost Promotion

Mit Hilfe der NVIDIA Volta Boost Promotion können Sie einen höheren Durchsatz mit niedrigeren Kosten erreichen. Das geschulte DELTA Personal berät sie gerne, um die perfekte GPU Lösung zu erhalten. 

GRAFIKPROZESSORBESCHLEUNIGTE RECHENZENTREN

 

Rechenzentren spielen in vielen Bereichen des menschlichen Fortschritts eine entscheidende Rolle: von wissenschaftlichen Entdeckungen bis hin zu künstlicher Intelligenz. In modernen Rechenzentren mit High Performance Computing (HPC) werden einige der wichtigsten Probleme der Welt gelöst.

Grafikprozessoren mit der NVIDIA Volta-Architektur stellen die Rechenleistung für moderne HPC-Rechenzentren bereit. Die durch NVIDIA Tesla beschleunigte Rechenplattform mit der Volta-Architektur ist auf die Beschleunigung von Rechenzentren für Hyperscale- und Strong-Scale-HPC sowie HPC mit gemischten Berechnungen ausgelegt.

 

WÄHLEN SIE DIE RICHTIGE NVIDIA® TESLA® LÖSUNG

PRODUKT

EINSATZBEREICHE

VORTEILE

MERKMALE

EMPFOHLENE SERVERKONFIGURATIONEN

Tesla V100 PCIe (32GB)

HPC und Deep Learning Die Tesla V100 hat die Performance von 100 CPUs in einer einzigen GPU.
  • 7 TeraFLOPS Double-Precision-Leistun

  • 14 TeraFLOPS SinglePrecision-Leistung

  • 900 GB/s Speicherbandbreite 

  • 32 GB HBM2-Speicher 

2 bis 8 Grafikprozessoren
pro Knoten

 Tesla P100 PCIe (16 GB)

HPC und Deep Learning Bei HPC und Deep Learning lassen sich 32 CPU-Server durch einen einzelnen P100 ersetzen.
  • 4,7 TeraFLOPS Double-Precision-Leistun

  • 9,3 TeraFLOPS SinglePrecision-Leistung

  • 720 GB/s Speicherbandbreite
    (Option mit 540 GB/s verfügbar)

  • 16 GB HBM2-Speicher (Option mit 12 GB verfügbar)

2 bis 8 Grafikprozessoren
pro Knoten

 Tesla V100 with NVLink (32GB)

Deep Learning Training 10-mal schnelleres Deep-Learning-Training vs. GPUs der neuesten Generation
  • 30 TeraFLOPS Half-Precision-Leistung
  • 15 TeraFLOPS Single-Precision-Leistung
  • 300 GB/s NVIDIA NVLink™
  • Konnektivität
  • 900 GB/s Speicherbandbreite
  • 32 GB HBM2-Speicher
4 bis 16 Grafikprozessoren
pro Knoten

 Tesla P40 (24 GB)

Deep Learning Training und Inferenz 40-mal schnellere Deep-Learning-Inferenz als auf einem CPU-Server
  • 47 TeraFOPS INT8-Inferenzleistung
  • 12 TeraFLOPS Single-Precision-Leistung
  • 24 GB GDDR5-Speicher
  • 1 Dekodierungsengine und 2 Kodierungsengines für Videos
1 bis 2 Grafikprozessoren
pro Knoten

 Tesla P4 (8GB)

Deep Learning Inference und Video Transkodierung 40-mal höhere Energieeffizienz als eine CPU bei Inferenz
  • 22 TeraFOPS INT8-Inferenzleistung
  • 5,5 TeraFLOPS Single-Precision-Leistung
  • 1 Dekodierungsengine und 2 Kodierungsengines für Videos
  • 50 W/75 W Leistung
  • Niedrigprofil-Formfaktor
1 bis 2 Grafikprozessoren
pro Knoten

weitere Informationen finden Sie in der Tabelle darunter  ....

 

TESLA V100-GRAFIKPROZESSOR – MERKMALE UND VORTEILE

Grafikprozessoren mit der NVIDIA Volta™-Architektur bieten die Computing-Engine eines neuen KI-Zeitalters für herausragende Nutzererfahrungen. Hierfür werden Deep-Learning-Anwendungen für Training und Bereitstellung optimiert.

DEEP-LEARNING-TRAINING MIT NVIDIA TESLA® V100

DEEP-LEARNING-INFERENZ MIT DEM TESLA P40 UND P4

Für eine höhere Produktivität von Datenwissenschaftlern und Beschleunigung der Bereitstellung von KI-Services ist schnelleres Trainieren immer komplexerer Modelle der entscheidende Faktor. Server mit dem Tesla V100 profitieren von der Leistung der Volta-Architektur, sodass sich die Trainingszeit bei Deep Learning von mehreren Monaten auf wenige Stunden verkürzen lässt. Gute Reaktionsgeschwindigkeit ist die Voraussetzung dafür, dass Nutzer Funktionen wie interaktive Sprache, visuelle Suche und Videoempfehlungen akzeptieren. Deep-Learning-Modelle werden immer präziser und komplexer. Daher sind CPUs nicht mehr in der Lage, dem Nutzer eine interaktive Erfahrung zu bieten. Die Tesla-Grafikprozessoren P40 und P4 bieten im Vergleich zu einer CPU eine mehr als 40-fach beschleunigte Inferenzleistung und ermöglichen so Reaktionen in Echtzeit.


GPU

Tesla
P100 PCIe
12 GB

Tesla
P100 PCIe
16 GB

Tesla
P100 SXM2
16 GB

Tesla
V100 PCIe
16 GB

Tesla
V100 SXM2
16 GB

Tesla
V100 PCIe
32 GB

Tesla
V100 SXM2
32 GB

Tesla
P4

Tesla
P40

Quadro
GP100
16 GB

Titan Xp
12 GB

Titan V
12 GB

GPU GP100 GP100 GP100 GV100 GV100 GV100 GV100 GP104 GP102 GP100 GP102 GV100
Cores (FP32)
3584 3584 3584 5120 5120 5120 5120 2560 3840 3584 3840 5120
Cores (FP64)
1792 1792 1792 2560 2560 2560 2560 -- -- 1792 -- 2560
Tensor Cores -- -- -- 640 640 640 640 -- -- -- -- 640
INT8 TIOP/s (8 bit integer), Peak -- -- -- -- -- -- -- 22 47 -- -- --
INT16 TIOP/s (16 bit integer), Peak -- -- -- -- -- -- -- 11 23,5 -- -- --
Tensor TFLOP/s
-- -- -- 112 120 112 125 -- -- -- -- --
FP16 TFLOP/s (half precision), Peak 18,7 18,7 21,2 28 30 28 30 -- -- 20,7 0,19 --
FP32 TFLOP/s (single precision), Peak 9,3 9,3 10,6 14 15 14 15 5,5 12 10,3 12,15 15
FP64 TFLOP/s (double precision), Peak 4,7 4,7 5,3 7 7,5 7 7,8 0,17 0,37 5,2 0,38 7,5
Memory Größe 12 GB 16 GB 16 GB 16 GB 16 GB 32 GB 32 GB 8 GB 24 GB 16 GB 12 GB 12 GB
Memory Typ HBM2 HBM2 HBM2 HBM2 HBM2 HBM2 ECC HBM2 ECC GDDR5 GDDR5 HBM2 GDDR5X HBM2
Memory Bandbreite 549 GB/s 732 GB/s 732 GB/s 900 GB/s 900 GB/s 900 GB/s 900 GB/s 192
GB/s
346
GB/s
717
GB/s
547,7
GB/s
652,8 GB/s
Memory Bit-Breite 3072 Bit 4096 Bit 4096 Bit 4096 Bit 4096 Bit 4096 Bit 4096 Bit 256 Bit 384 Bit 4096 Bit 384 Bit 3072 Bit
Interconnect PCIe 3.0 x16, 32 GB/s 3.0 x16, 32 GB/s 3.0 x16, 32 GB/s 3.0 x16, 32 GB/s 3.0 x16, 32 GB/s 3.0 x16, 32 GB/s 3.0 x16, 32 GB/s 3.0 x16, 32 GB/s 3.0 x16, 32 GB/s 3.0 x16, 32
GB/s
3.0 x16, 32
GB/s
3.0 x16, 32 GB/s
Interconnect NVLink -- -- 160 GB/s --
300 GB/s -- 300 GB/s -- -- 80 GB/s
beide Karten
-- --
Formfaktor PCIe Dual Slot PCIe Dual Slot SXM2 PCIe Dual Slot SXM2 PCIe Dual Slot SXM3 PCIe LP PCIe Dual Slot PCIe Dual Slot PCIe Dual Slot PCIe Dual Slot
Stromverbrauch 250 W 250 W 300 W 250 W 300 W 250 300 75W (optional 50W) 250 W 235 W 250 W 250 W
Haupt-Anwendung HPC + KI Training HPC + KI Training HPC + KI Training HPC + KI Training HPC + KI Training HPC + KI Training HPC + KI Training KI Inference KI Inference HPC Workstation
KI Inference
Workstation HPC + KI Training
Hardware Accelerated Video Engine -- -- -- -- -- -- -- 1 Decodier + 2 Codier 1 Decodier + 2 Codier -- -- --
Display Connectors -- -- -- -- -- -- -- -- -- DP 1.4 (4) + DVI-D DL(1) + Stereo DP 1.4 (3) + HDMI 2.0b (1) DP 1.4 (3) + HDMI
Kühlung passiv passiv passiv passiv passiv passiv passiv passiv passiv aktiv aktiv aktiv