Es tut uns ehrlich leid! Wahrscheinlich benutzen sie den Internet Explorer (IE) 10 oder 11. Leider funktionieren einige unserer Webshop-Dienste nicht mit dem IE 10 oder 11. Wir bitten sie freundlichst darum, einen modernen Browser zu benutzen.
NVIDIA Volta Boost Promotion

NVIDIA Volta Boost Promotion

Mit Hilfe der NVIDIA Volta Boost Promotion können Sie einen höheren Durchsatz mit niedrigeren Kosten erreichen. Das geschulte DELTA Personal berät sie gerne, um die perfekte GPU Lösung zu erhalten. 

GRAFIKPROZESSORBESCHLEUNIGTE RECHENZENTREN

 

Rechenzentren spielen in vielen Bereichen des menschlichen Fortschritts eine entscheidende Rolle: von wissenschaftlichen Entdeckungen bis hin zu künstlicher Intelligenz. In modernen Rechenzentren mit High Performance Computing (HPC) werden einige der wichtigsten Probleme der Welt gelöst.

Grafikprozessoren mit der NVIDIA Volta-Architektur stellen die Rechenleistung für moderne HPC-Rechenzentren bereit. Die durch NVIDIA Tesla beschleunigte Rechenplattform mit der Volta-Architektur ist auf die Beschleunigung von Rechenzentren für Hyperscale- und Strong-Scale-HPC sowie HPC mit gemischten Berechnungen ausgelegt.

 

WÄHLEN SIE DIE RICHTIGE NVIDIA® TESLA® LÖSUNG

PRODUKT

EINSATZBEREICHE

VORTEILE

MERKMALE

EMPFOHLENE SERVERKONFIGURATIONEN

 Tesla V100 with NVLink (32GB)

Deep Learning Training 10-mal schnelleres Deep-Learning-Training vs. GPUs der neuesten Generation
  • 7,8 TeraFLOPS Double-Precision-Leistung
  • 15 TeraFLOPS Single-Precision-Leistung
  • 30 TeraFLOPS Half-Precision-Leistung
  • 300 GB/s NVIDIA NVLink™
  • Konnektivität
  • 900 GB/s Speicherbandbreite
  • 32 GB HBM2-Speicher
4 bis 16 Grafikprozessoren
pro Knoten

Tesla V100 PCIe (32GB)

HPC und Deep Learning Die Tesla V100 hat die Performance von 100 CPUs in einer einzigen GPU.
  • 7 TeraFLOPS Double-Precision-Leistung

  • 14 TeraFLOPS Single-Precision-Leistung

  • 28 TeraFLOPS Half-Precision-Leistung

  • 900 GB/s Speicherbandbreite 

  • 32 GB HBM2-Speicher 

2 bis 8 Grafikprozessoren
pro Knoten

 Tesla P100 PCIe (16 GB)

HPC und Deep Learning Bei HPC und Deep Learning lassen sich 32 CPU-Server durch einen einzelnen P100 ersetzen.
  • 4,7 TeraFLOPS Double-Precision-Leistung

  • 9,3 TeraFLOPS Single-Precision-Leistung

  • 18,7 TeraFLOPS Half-Precision-Leistung

  • 720 GB/s Speicherbandbreite
    (Option mit 540 GB/s verfügbar)

  • 16 GB HBM2-Speicher (Option mit 12 GB verfügbar)

2 bis 8 Grafikprozessoren
pro Knoten

 Tesla P40 (24 GB)

Deep Learning Training und Inferenz 40-mal schnellere Deep-Learning-Inferenz als auf einem CPU-Server
  • 47 TeraFOPS INT8-Inferenzleistung
  • 12 TeraFLOPS Single-Precision-Leistung
  • 24 GB GDDR5-Speicher
  • 1 Dekodierungsengine und 2 Kodierungsengines für Videos
1 bis 2 Grafikprozessoren
pro Knoten

 Tesla P4 (8GB)

Deep Learning Inference und Video Transkodierung 40-mal höhere Energieeffizienz als eine CPU bei Inferenz
  • 22 TeraFOPS INT8-Inferenzleistung
  • 5,5 TeraFLOPS Single-Precision-Leistung
  • 1 Dekodierungsengine und 2 Kodierungsengines für Videos
  • 50 W/75 W Leistung
  • Niedrigprofil-Formfaktor
1 bis 2 Grafikprozessoren
pro Knoten

weitere Informationen finden Sie in der Tabelle darunter  ....

 

TESLA V100-GRAFIKPROZESSOR – MERKMALE UND VORTEILE

Grafikprozessoren mit der NVIDIA Volta™-Architektur bieten die Computing-Engine eines neuen KI-Zeitalters für herausragende Nutzererfahrungen. Hierfür werden Deep-Learning-Anwendungen für Training und Bereitstellung optimiert.

DEEP-LEARNING-TRAINING MIT NVIDIA TESLA® V100

DEEP-LEARNING-INFERENZ MIT DEM TESLA P40 UND P4

Für eine höhere Produktivität von Datenwissenschaftlern und Beschleunigung der Bereitstellung von KI-Services ist schnelleres Trainieren immer komplexerer Modelle der entscheidende Faktor. Server mit dem Tesla V100 profitieren von der Leistung der Volta-Architektur, sodass sich die Trainingszeit bei Deep Learning von mehreren Monaten auf wenige Stunden verkürzen lässt. Gute Reaktionsgeschwindigkeit ist die Voraussetzung dafür, dass Nutzer Funktionen wie interaktive Sprache, visuelle Suche und Videoempfehlungen akzeptieren. Deep-Learning-Modelle werden immer präziser und komplexer. Daher sind CPUs nicht mehr in der Lage, dem Nutzer eine interaktive Erfahrung zu bieten. Die Tesla-Grafikprozessoren P40 und P4 bieten im Vergleich zu einer CPU eine mehr als 40-fach beschleunigte Inferenzleistung und ermöglichen so Reaktionen in Echtzeit.


GPU

Tesla
P100 PCIe
12 GB

Tesla
P100 PCIe
16 GB

Tesla
P100 SXM2
16 GB

Tesla
V100 PCIe
16 GB

Tesla
V100 SXM2
16 GB

Tesla
V100 PCIe
32 GB

Tesla
V100 SXM2
32 GB

Tesla
P4

Tesla
P40

Quadro
GP100
16 GB

Titan Xp
12 GB

Titan V
12 GB

RTX TITAN
24 GB

GPU GP100 GP100 GP100 GV100 GV100 GV100 GV100 GP104 GP102 GP100 GP102 GV100 TU102
Cores (FP32)
3584 3584 3584 5120 5120 5120 5120 2560 3840 3584 3840 5120 ??
Cores (FP64)
1792 1792 1792 2560 2560 2560 2560 -- -- 1792 -- 2560 ??
Tensor Cores -- -- -- 640 640 640 640 -- -- -- -- 640 576
Raytracing-Cores -- -- -- -- -- -- -- -- -- -- -- -- 72
INT8 TIOP/s (8 bit integer), Peak -- -- -- -- -- -- -- 22 47 -- -- -- ??
INT16 TIOP/s (16 bit integer), Peak -- -- -- -- -- -- -- 11 23,5 -- -- -- ??
Tensor TFLOP/s
-- -- -- 112 120 112 125 -- -- -- -- -- 130
FP16 TFLOP/s (half precision), Peak 18,7 18,7 21,2 28 30 28 30 -- -- 20,7 0,19 -- ??
FP32 TFLOP/s (single precision), Peak 9,3 9,3 10,6 14 15 14 15 5,5 12 10,3 12,15 15 ??
FP64 TFLOP/s (double precision), Peak 4,7 4,7 5,3 7 7,5 7 7,8 0,17 0,37 5,2 0,38 7,5 ??
Memory Größe 12 GB 16 GB 16 GB 16 GB 16 GB 32 GB 32 GB 8 GB 24 GB 16 GB 12 GB 12 GB 24
Memory Typ HBM2 HBM2 HBM2 HBM2 HBM2 HBM2 ECC HBM2 ECC GDDR5 GDDR5 HBM2 GDDR5X HBM2 GDDR6
Memory Bandbreite 549 GB/s 732 GB/s 732 GB/s 900 GB/s 900 GB/s 900 GB/s 900 GB/s 192
GB/s
346
GB/s
717
GB/s
547,7
GB/s
652,8 GB/s 672 GB/s
Memory Bit-Breite 3072 Bit 4096 Bit 4096 Bit 4096 Bit 4096 Bit 4096 Bit 4096 Bit 256 Bit 384 Bit 4096 Bit 384 Bit 3072 Bit 384 Bit
Interconnect PCIe 3.0 x16, 32 GB/s 3.0 x16, 32 GB/s 3.0 x16, 32 GB/s 3.0 x16, 32 GB/s 3.0 x16, 32 GB/s 3.0 x16, 32 GB/s 3.0 x16, 32 GB/s 3.0 x16, 32 GB/s 3.0 x16, 32 GB/s 3.0 x16, 32
GB/s
3.0 x16, 32
GB/s
3.0 x16, 32 GB/s 3.0 x16, 32 GB/s
Interconnect NVLink -- -- 160 GB/s --
300 GB/s -- 300 GB/s -- -- 80 GB/s
beide Karten
-- -- --
Formfaktor PCIe Dual Slot PCIe Dual Slot SXM2 PCIe Dual Slot SXM2 PCIe Dual Slot SXM3 PCIe LP PCIe Dual Slot PCIe Dual Slot PCIe Dual Slot PCIe Dual Slot PCIe Dueal Slot
Stromverbrauch 250 W 250 W 300 W 250 W 300 W 250 300 75W (optional 50W) 250 W 235 W 250 W 250 W 280W
Haupt-Anwendung HPC + KI Training HPC + KI Training HPC + KI Training HPC + KI Training HPC + KI Training HPC + KI Training HPC + KI Training KI Inference KI Inference HPC Workstation
KI Inference
Workstation HPC + KI Training HPC + KI Training
Hardware Accelerated Video Engine -- -- -- -- -- -- -- 1 Decodier + 2 Codier 1 Decodier + 2 Codier -- -- -- --
Display Connectors -- -- -- -- -- -- -- -- -- DP 1.4 (4) + DVI-D DL(1) + Stereo DP 1.4 (3) + HDMI 2.0b (1) DP 1.4 (3) + HDMI  DP 1.4 (3) + HDMI
+ 1 USB Type C
Kühlung passiv passiv passiv passiv passiv passiv passiv passiv passiv aktiv aktiv aktiv aktiv