JavaScript scheint in Ihrem Browser deaktiviert zu sein. Um unsere Website in bester Weise zu erfahren, aktivieren Sie Javascript in Ihrem Browser.
Um Ihnen die Funktionen unseres Online-Shops uneingeschränkt anbieten zu können setzen wir Cookies ein. Weitere Informationen
Bei uns erhalten Sie eine große Auswahl an Tower Gehäusen. Diese können in unterschiedlichen Umgebungen wie zum Beispiel einem leisen Büro, Labor oder einem HPC Rack eingesetzt werden. Passend zu der von Ihnen gewählten Hardware, erhalten Sie immer die bestmögliche Kühlung. Unsere Filterfunktion unterstützt Sie dabei, die für Sie geeigneten Produkte zu finden.
Die neuen AMD® EPYC® 9004 "Genoa" CPUs werden mit 16, 32, 48, 64, 84 und 96 Cores angeboten und unterstützen 12 Speicherkanäle mit DDR5-4800 MHz und PCI-Express 5.0. Bei zwölf Speicherkanälen sind pro System maximal 3072 GB RAM möglich. Mit einer maximalen TDP von 360 Watt sind Turbotaktraten von bis zu 4,4GHz möglich. Insgesamt stehen 256 PCIe Lanes zur Verfügung, davon werden jedoch 96 Lanes für den Interconnect zwsichen den beiden CPUs genutzt.
Die neuen AMD® Ryzen® Threadripper / PRO CPUs werden mit 16, 24, 32 und 64 Cores angeboten und unterstützen 4 oder 8 Speicherkanäle mit DDR4-3200 MHz und 64x PCI-Express 4.0 Lanes. Insgesamt sind pro System maximal 256GB RAM möglich. Mit einer maximalen TDP von 280 Watt sind Turbotaktraten von bis zu 4,5GHz möglich.
Die neuen Intel® Xeon® CPUs der Scalable Familiy "Sapphire Rapids" werden mit 8, bis 60 Cores angeboten und unterstützen 8 Speicherkanäle mit DDR5-4800 MHz. Bei je acht Speicherkanäle pro CPU sind pro System maximal 4096GB RAM möglich. Insgesamt stehen 160 PCIe Lanes zur Verfügung. Mit einer maximalen TDP von 350 Watt sind Turbotaktraten von bis zu 4,2GHz möglich.
Die neuen Intel® Xeon W CPUs werden mit 6, 8, 12, 16, 20, 24, 28, 36 und 56 Cores angeboten und unterstützen 4 oder 8 Speicherkanäle mit DDR5-4800 MHz. Somit sind pro System maximal 2048GB RAM möglich. Weiterhin stehen 64 PCIe Lanes zur Verfügung. Mit einer maximalen TDP von 350 Watt sind Turbotaktraten von bis zu 4,8GHz möglich.
Durch den Einsatz von hochleistungsfähigen NVMe-Laufwerken von Micron, effizientem Software-RAID von Xinnor und 400 Gbit InfiniBand-Controllern von NVIDIA gewährleistet das von Delta entwickelte System über NFSoRDMA-Schnittstellen sowohl für Lese- als auch für Schreibvorgänge ein hohes Leistungsniveau, das entscheidend ist, um die für KI-Projekte typischen Checkpoint-Zeiten zu verkürzen und mögliche Laufwerksausfälle zu bewältigen. NFSoRDMA ermöglicht den parallelen Lese- und Schreibzugriff auf mehrere Knoten gleichzeitig.
NVIDIA AI Enterprise ist eine Cloud-native Software-Plattform, die Data-Science-Pipelines beschleunigt und die Entwicklung und Bereitstellung von produktionsreifen KI-Anwendungen, einschließlich generativer KI, optimiert. Unternehmen, die ihr Geschäft mit KI betreiben, verlassen sich auf die Sicherheit, den Support und die Stabilität von NVIDIA AI Enterprise, um einen reibungslosen Übergang von der Testphase zur Produktion zu gewährleisten.
Mit der industriellen Digitalisierung und den Metaverse-Anwendungen auf Basis von NVIDIA Omniverse™ entsteht ein enormer Bedarf an rechenintensiver KI, groß angelegter Grafik und Echtzeit-Simulations-Workloads.
NVIDIA® Parabricks® ist eine skalierbare Software-Suite für die Genomanalyse, die Full-Stack-beschleunigtes Computing nutzt, um Daten innerhalb weniger Minuten zu verarbeiten. Es ist mit allen führenden Sequenzierungsinstrumenten kompatibel, unterstützt diverse Bioinformatik-Workflows und integriert KI für Genauigkeit und Anpassung. Parabricks ist eine kostengünstige und platzsparende Lösung und ideal für umfangreiche Genomikprojekte, deren Ziel es ist, das Verständnis und die Behandlung von Krankheiten voranzubringen.
Die NVIDIA Virtual GPU (vGPU) Software ermöglicht die Bereitstellung von leistungsstarker GPU-Leistung im Data Center sowie in öffentlichen und privaten Clouds.
Die NVIDIA vGPU Software wird auf Servern mit NVIDIA GPUs installiert und erstellt virtuelle GPUs, die von mehreren virtuellen Maschinen gemeinsam genutzt werden können.
Wir bieten Ihnen Lizenzen für eine Vielzahl von Betriebssystemen an. Windows, SUSE, Red Hat u. v. m.
NICE DCV ist ein leistungsfähiges Protokoll für die Remote-Visualisierung, mit dem Benutzer eine sichere Verbindung zu grafikintensiven 3D- oder 2D-Anwendungen herstellen können, die lokal oder remote auf einem 3D-Visualisierungsserver oder einem Cluster gehostet werden. Es bietet virtuelle Remote-Desktops und Anwendungsstreaming von jedem Standort aus auf jedes Gerät, ohne dass eine hohe Bandbreite zwischen dem Server und dem Remote-Desktop erforderlich ist.
Die neuen AMD® EPYC® 9004 "Genoa" CPUs werden mit 16, 24, 32, 48, 64, 84, 96, 112 und 128 Cores angeboten und unterstützen 12 Speicherkanäle mit DDR5-4800 MHz und PCI-Express 5.0.
Die neuen Intel® Xeon® CPUs der Scalable Familiy "Sapphire Rapids" werden mit 8, bis 64 Cores angeboten und unterstützen 8 Speicherkanäle mit DDR5-4800 MHz.
Große Auswahl an Grafikkarten für ein breites Anwendungsspektrum - von einfachen Simulationen/Rendering, bis hin zu komplexen Berechnungen im HPC Bereich.
Hier finden Sie eine Übersicht aller aktuellen NVIDIA GPUs. Anhand der Tabellen können Sie die verschiedenen GPU-Modelle direkt vergleichen, um die bestmögliche Lösung zu finden.
Der NVIDIA L40-Grafikprozessor wird hauptsächlich für den Einsatz im Rechenzentrum genutzt. Er übernimmt komplexe KI-Berechnungen sowie Aufgaben im Deep-Learning Bereich.
Für Aufgaben wie zum Beispiel 3D-Moddeling, Rendering, CAD und vieles mehr ist die NVIDIA RTX™ 6000 Aauch hervorragend in einer Workstation einzusetzen.
Beschleunigen Sie Ihre KI-Workloads mit der NVIDIA H100 Tensor Core GPU und profitieren Sie von den Tensor-Cores und der neuen NVLink Technologie.
Mit dem NVIDIA L4-Grafikprozessor erhalten Sie das perfekte Werkzeug für die Umsetzung von AI Video, KI, Virtualisierung, Inferencing und vielem mehr. Auf Grund der effizienten Bauart, kann diese GPU fast überall eingesetzt werden.
Bei uns erhalten Sie eine Übersicht der kompletten DGX Palette. Sie können die Appliance als Tower oder Rack-Server für unterschiedliche Anwendungen nutzen.
NVIDIA DGX™ B200 ist eine einheitliche KI-Plattform für Pipelines von der Entwicklung bis zur Bereitstellung in Unternehmen jeglicher Größe und in jeder Phase ihrer KI-Reise.
Die NVIDIA DGX™ H100 ist das neueste Modell der legendären DGX-Serie von NVIDIA und die Grundlage von NVIDIA DGX SuperPOD™.
Der NVIDIA Grace™ Hopper™ Superchip ist ein bahnbrechender, beschleunigter Prozessor, der von Grund auf für Anwendungen der künstlichen Intelligenz und des High Performance Computing (HPC) entwickelt wurde.
NVIDIA HGX ist als einzelne Hauptplatine mit vier oder acht H100-GPUs und 80 GB GPU-Speicher erhältlich.
Wenn Sie an einem Test Interesse haben und entsprechende Projekte planen, können wir Sie für einen Test einplanen. Bitte füllen Sie das Anfrageformular für einen kostenlosen Benchmark aus oder schicken Sie uns eine E-Mail.Natürlich nehmen wir auch gerne eine individuelle Softwarekonfiguration vor.
Der NVIDIA DGX SuperPOD™ ist eine optimierte Rechenzentrumslösung mit 32x (1SU) und bis zu 127x (2SU) DGX™ H100 Servern, Speicherservern und Netzwerk-Switches zur Unterstützung des Trainings und der Inferenz von KI-Modellen mit einem oder mehreren Knoten unter Verwendung von NVIDIA KI-Software.
NVIDIA Clara™ ist eine Plattform für medizinische Bildgebung, Genomik, Patientenüberwachung und Medikamentenentwicklung.
NVIDIA Clara™ Parabricks ist ein Berechnungs-Framework, das Genomik-Anwendungen von der DNA bis zur RNA unterstützt. Es nutzt die CUDA-, HPC-, KI- und Datenanalyse-Stacks von NVIDIA, um GPU-beschleunigte Bibliotheken, Pipelines und Referenzanwendungs-Workflows für Primär-, Sekundär- und Tertiäranalysen zu erstellen.
Ethernet Adapter mit Übertragungsraten von 1Gbit/s bis 400Gbit/s, verschiedenen Anschlüssen und von unterschiedlichen Herstellern wie Broadcom, Intel, NVIDIA und Supermicro
Ethernet Switches mit Übertragungsraten von 1Gbit/s bis 400Gbit/s, verschiedenen Anschlüssen und von unterschiedlichen Herstellern wie Edgecore, Netgear, NVIDIA, QuantaMesh und Supermicro
Ethernet Kabel mit Übertragungsraten 10Gbit/s bis 400Gbit/s und verschiedenen Anschlüssen, sowie DAC und Splitter Kabel
Ethernet Transceiver mit verschiedenen Übertragungsraten und in unterschiedlichen Ausführungen
Netzwerktransparenz für Cyber Security, Big Data Analytics und Monitoring-Tools in High-End-Rechenzentren und Niederlassungen
Infiniband Adapter mit Übertragungsraten von 100Gbit/s (EDR) bis 400Gbit/s (NDR)
Infiniband Switches mit Übertragungsraten von 100Gbit/s (EDR) bis 400Gbit/s (NDR)
Infiniband Kabel mit Übertragungsraten von 100Gbit/s (EDR) bis 400Gbit/s (NDR) und verschiedenen Anschlüssen, sowie DAC und Splitter Kabel
Die Anforderungen an die 19'' Serverschränke werden immer höher und komplexer. Die Stabilität sowie die Kapazität, Kühlung, Kabel-Management und Einbautiefe spielen hierbei eine große Rolle. Die luftgekühlten Serverschränke bieten einen unkomplizierten Einbau und eine komfortable Unterbringung der Hardware.
Mit Hilfe zusätzlicher Hardware, wie zum Beispiel einer PDU (Power Distribution Unit) oder einer USV (unterbrechungsfreie Stromversorgung) können Sie sich Ihre Rack-Umgebung perfekt konfigurieren. Sowohl die Überwachung als auch die Absicherung bieten einen großen Komfort.
Artikel 1-12 von 26
48x 25GbE SFP28 und 6x 100GbE QSFP28