Es tut uns ehrlich leid! Wahrscheinlich benutzen sie den Internet Explorer (IE) 10 oder 11. Leider funktionieren einige unserer Webshop-Dienste nicht mit dem IE 10 oder 11. Wir bitten sie freundlichst darum, einen modernen Browser zu benutzen.
Deep Learning Test Center

Deep Learning Test Center

Sie interessieren sich für Deep Learning oder andere Themen rund um das GPU Computing?
Planen Sie z.B. die Anschaffung eines GPU Servers oder einer Lösung?
Dann sind sie hier genau richtig!

Viele Kunden stellen sich die Frage, welche Anzahl und welcher Typ GPU für ihre Anwendung am sinnvollsten ist.
Bei steigender Anzahl an GPUs pro System muss früher oder später geklärt werden, ob die Anwendung von der NVLink Technologie profitieren kann. 
Herkömmliche Systeme werden durch die begrenzte Anzahl der PCI-Express Lanes schnell zum Flaschenhals. NVLink ist die Überholspur!

Auch die Frage nach dem Hauptprozessor ist essentiell, da die unterschiedlichen CPUs von Intel (Xeon Scalable) und von AMD (EPYC) verschieden viele PCI-Express Lanes zur Verfügung stellen.

Zu diesem Zweck bieten wir für einen begrenzten Zeitraum unterschiedliche GPU Lösungen via Remotezugang zum Test an. Sowohl auf Basis der Intel Xeon Prozessoren als auch auf Basis des AMD EPYC Prozessors.
Angefangen vom einfachen GPU Server, der i.d.R. ein bis zehn GPUs aufnehmen kann, bieten wir Ihnen die Möglichkeit die brandneue DGX A100 mit 8x A100 (je 40GB RAM) und der NVLink Technologie zu testen.
Zwecks Speicherung und Verarbeitung ihrer Testdaten stehen unterschiedliche Storagelösungen bereit, die ihren Wünschen entsprechend in die Testumgebung via EDR InfiniBand eingebunden werden können.
Natürlich nehmen wir auch gerne eine individuelle Softwarekonfiguration vor.

 

Schnellere Lösung größerer, komplexerer Datenwissenschaftsprobleme

Bereitstellung der Infrastruktur und operatives Skalieren der KI

Verkürzung der Zeit für Erkenntnisse und Beschleunigung der Kapitalrendite der KI


FUNKTIONSWEISE DER MULTI-INSTANCE GPU (MIG) TECHNOLOGIE

Ohne MIG konkurrieren verschiedene Aufgaben, die auf demselben Grafikprozessor ausgeführt werden, wie unterschiedliche KI-Inferenzanforderungen, um dieselben Ressourcen wie beispielsweise die Speicherbandbreite. Durch eine Aufgabe, die mehr Speicherbandbreite beansprucht, steht für andere Aufgaben weniger zur Verfügung, sodass mehrere Aufgaben ihre Latenz-Zielwerte verfehlen.

Mit MIG werden Aufgaben gleichzeitig in verschiedenen Instanzen ausgeführt, jeweils mit dedizierten Ressourcen für Rechenleistung, Arbeitsspeicher und Speicherbandbreite, was zu einer vorhersehbaren Leistung mit hoher Servicequalität und maximaler GPU-Auslastung führt.

Ein NVIDIA A100-Grafikprozessor kann in verschiedene MIG-Instanzen aufgeteilt werden. Ein Administrator könnte beispielsweise zwei Instanzen mit je 20 GB Speicher oder drei Instanzen mit 10 GB oder sieben Instanzen mit 5 GB erstellen. Oder eine beliebige Kombination davon. Auf diese Weise können Systemadministratoren für unterschiedliche Arten von Workloads Grafikprozessoren mit der richtigen Größe bereitstellen.

MIG-Instanzen können auch dynamisch neu konfiguriert werden, sodass Administratoren die GPU-Ressourcen an wechselnde Nutzer- und Geschäftsanforderungen anpassen können. Sieben MIG-Instanzen können z. B. tagsüber zur Inferenz mit geringem Durchsatz verwendet werden und für das Deep-Learning-Training in der Nacht zu einer großen MIG-Instanz umkonfiguriert werden

Gerne besprechen wir alle weiteren Konfiguration im persönlichen Gespräch.
Anschließend wird das Test Setup definiert und Sie erhalten ihren persönlichen Zugang zu dem gewünschten System.

Fragen Sie jetzt ein individuelles Angebot mit Projektrabatt an.


Falls sich für Sie die Anschaffung einer eigenen GPU Lösung nicht lohnt und Sie diese lediglich für einen begrenzten Zeitraum benötigen, können wir ihnen ebenfalls weiterhelfen.
Bitte zögern Sie nicht uns zu kontaktieren. Wir sind jeder Zeit für Sie erreichbar. 
Per E-Mail oder unter 040-300-672-0.

Ansicht als Raster Liste

3 Artikel

pro Seite
In absteigender Reihenfolge
  1. NVIDIA DGX A100 inkl. 3 Jahre Support für Forschung und Lehre
    NVIDIA DGX A100 inkl. 3 Jahre Support für Forschung und Lehre
    158.809,85 €

    Die NVIDIA DGX A100 ist das erste System, das mit bahnbrechenden, durch NVIDIA Ampere™ angetriebenen A100-Grafikprozessoren bestückt ist und über NVIDIA NVLink™ 3.0 vernetzt ist.

  2. NVIDIA DGX A100 inkl. 5 Jahre Support für Forschung und Lehre
    NVIDIA DGX A100 inkl. 5 Jahre Support für Forschung und Lehre
    174.072,41 €

    Die NVIDIA DGX A100 ist das erste System, das mit bahnbrechenden, durch NVIDIA Ampere™ angetriebenen A100-Grafikprozessoren bestückt ist und über NVIDIA NVLink™ 3.0 vernetzt ist.

  3. D23x-M4-PS-8xGPU
    D23x-M4-PS-8xGPU

    Ab 5.909,78 €

    4HE Rack-Chassis mit red. 3x 1600W Netzteilen für 8x GPU/MIC und 8x 2,5" HotSwap Einschüben für SATA/SAS/NVMe Disks

Ansicht als Raster Liste

3 Artikel

pro Seite
In absteigender Reihenfolge