Es tut uns ehrlich leid! Wahrscheinlich benutzen sie den Internet Explorer (IE) 10 oder 11. Leider funktionieren einige unserer Webshop-Dienste nicht mit dem IE 10 oder 11. Wir bitten sie freundlichst darum, einen modernen Browser zu benutzen.
InfiniBand

InfiniBand

InfiniBand wird nicht nur als MPI Cluster Interconnect eingesetzt, sondern findet zunehmend Verwendung im Bereich GPU Computing (GPU direct) und im High Performance Storage Umfeld. Mit IP over IB können z.B. mit minimalem Konfigurationsaufwand Daten extrem schnell im Netzwerk bereit gestellt werden. Bei höheren Anforderungen an die I/O-Rate empfehlen wir die parallelen Dateisysteme Lustre und BeeGFS, für die wir ebenfalls Support leisten. Mit der Einführung von PCIe 4.0 kann jetzt pro Rechner-Slot eine Bandbreite von 32 Gigabyte/s bereit gestellt werden, so dass die ConnectX-6 InfiniBand Karten, die derzeit z.B. in der NVIDIA DGX A100 verbaut sind, problemlos mit 200 Gigabit/s übertragen können.