NVIDIA Pascal Boost Promotion

NVIDIA Pascal Boost Promotion

Mit Hilfe der NVIDIA Pascal Boost Promotion können Sie einen höheren Durchsatz mit niedrigeren Kosten erreichen. Das geschulte DELTA Personal berät sie gerne, um die perfekte GPU Lösung zu erhalten.

 

 

GRAFIKPROZESSORBESCHLEUNIGTE RECHENZENTREN
 

Rechenzentren spielen in vielen Bereichen des menschlichen Fortschritts eine entscheidende Rolle: von wissenschaftlichen Entdeckungen bis hin zu künstlicher Intelligenz. In modernen Rechenzentren mit High Performance Computing (HPC) werden einige der wichtigsten Probleme der Welt gelöst.

Grafikprozessoren mit der NVIDIA Pascal-Architektur stellen die Rechenleistung für moderne HPC-Rechenzentren bereit. Die durch NVIDIA Tesla beschleunigte Rechenplattform mit der Pascal-Architektur ist auf die Beschleunigung von Rechenzentren für Hyperscale- und Strong-Scale-HPC sowie HPC mit gemischten Berechnungen ausgelegt.

 

WÄHLEN SIE DIE RICHTIGE NVIDIA® TESLA® LÖSUNG
 

PRODUKT

EINSATZBEREICHE

VORTEILE

MERKMALE

EMPFOHLENE SERVERKONFIGURATIONEN

 Tesla P100 PCIe

HPC und Deep Learning Bei HPC und Deep Learning lassen sich 32 CPU-Server durch einen einzelnen P100 ersetzen.
  • 4,7 TeraFLOPS Double-Precision-Leistun

  • 9,3 TeraFLOPS SinglePrecision-Leistung

  • 720 GB/s Speicherbandbreite
    (Option mit 540 GB/s verfügbar)

  • 16 GB HBM2-Speicher (Option mit 12 GB verfügbar)

2 bis 4 Grafikprozessoren
pro Knoten

 Tesla P100 with NVLink

Deep Learning Training 10-mal schnelleres Deep-Learning-Training vs. GPUs der neuesten Generation
  • 21 TeraFLOPS Half-Precision-Leistung
  • 11 TeraFLOPS Single-Precision-Leistung
  • 160 GB/s NVIDIA NVLink™
  • Konnektivität
  • 720 GB/s Speicherbandbreite
  • 16 GB HBM2-Speicher
4 bis 8 Grafikprozessoren
pro Knoten

 Tesla P40

Deep Learning Training und Inferenz 40-mal schnellere Deep-Learning-Inferenz als auf einem CPU-Server
  • 47 TeraOPS INT8-Inferenzleistung
  • 12 TeraFLOPS Single-Precision-Leistung
  • 24 GB GDDR5-Speicher
  • 1 Dekodierungsengine und 2 Kodierungsengines für Videos
Bis zu 8 Grafikprozessoren pro Knoten

 Tesla P4

Deep Learning Inference und Video Transkodierung 40-mal höhere Energieeffizienz als eine CPU bei Inferenz
  • 22 TeraOPS INT8-Inferenzleistung
  • 5,5 TeraFLOPS Single-Precision-Leistung
  • 1 Dekodierungsengine und 2 Kodierungsengines für Videos
  • 50 W/75 W Leistung
  • Niedrigprofil-Formfaktor
1 bis 2 Grafikprozessoren
pro Knoten

weitere Informationen finden Sie in der Tabelle darunter  ....

 

 

 

TESLA P100-GRAFIKPROZESSOR – MERKMALE UND VORTEILE

Grafikprozessoren mit der NVIDIA Pascal™-Architektur bieten die Computing-Engine eines neuen KI-Zeitalters für herausragende Nutzererfahrungen. Hierfür werden Deep-Learning-Anwendungen für Training und Bereitstellung optimiert.

DEEP-LEARNING-TRAINING MIT NVIDIA TESLA® P100

DEEP-LEARNING-INFERENZ MIT DEM TESLA P40 UND P4

Für eine höhere Produktivität von Datenwissenschaftlern und Beschleunigung der Bereitstellung von KI-Services ist schnelleres Trainieren immer komplexerer Modelle der entscheidende Faktor. Server mit dem Tesla P100 profitieren von der Leistung der Pascal-Architektur, sodass sich die Trainingszeit bei Deep Learning von mehreren Monaten auf wenige Stunden verkürzen lässt. Gute Reaktionsgeschwindigkeit ist die Voraussetzung dafür, dass Nutzer Funktionen wie interaktive Sprache, visuelle Suche und Videoempfehlungen akzeptieren. Deep-Learning-Modelle werden immer präziser und komplexer. Daher sind CPUs nicht mehr in der Lage, dem Nutzer eine interaktive Erfahrung zu bieten. Die Tesla-Grafikprozessoren P40 und P4 bieten im Vergleich zu einer CPU eine mehr als 40-fach beschleunigte Inferenzleistung und ermöglichen so Reaktionen in Echtzeit.


Tesla Karte

P100 PCIe
12 GB

P100 PCIe
16 GB

P100 SXM2
16 GB

P4

P40

GPU GP100 GP100 GP100 GP104 GP102
Cores 3584 3584 3584 2560 3840
INT8 TIOP/s (8 bit integer), Peak -- -- -- 22 47
INT16 TIOP/s (16 bit integer), Peak -- -- -- 11 23,5
FP16 TFLOP/s (half precision), Peak 18,7 18,7 21,2 -- --
FP32 TFLOP/s (single precision), Peak 9,3 9,3 10,6 5,5 12
FP64 TFLOP/s (double precision), Peak 4,7 4,7 5,3 0,17 0,37
Memory Größe 12 GB 16 GB 16 GB 8 GB 24 GB
Memory Typ HBM2 HBM2 HBM2 GDDR5 GDDR5
Memory Bandbreite 549 GB/s 732 GB/s 732 GB/s 192 GB/s 346 GB/s
Memory Bit-Breite 3072 Bit 4096 Bit 4096 Bit 256 Bit 384 Bit
Interconnect PCIe 3.0 x16 PCIe 3.0 x16 PCIe 3.0 x16 + NVLInk PCIe 3.0 x16 PCIe 3.0 x16
Formfaktor PCIe Dual Slot PCIe Dual Slot SMX2 PCIe LP PCIe Dual Slot
Stromverbrauch 250 W 250 W 300 W 75W (optional 50W) 250 W
Haupt-Anwendung HPC + KI Training HPC + KI Training HPC + KI Training KI Inference KI Inference
Hardware Accelerated Video Engine -- -- -- 1 Decodier + 2 Codier 1 Decodier + 2 Codier