Um Ihnen die Funktionen unseres Online-Shops uneingeschränkt anbieten zu können setzen wir Cookies ein. Weitere Informationen

NVIDIA Deep Learning
KI steht niemals still. Sie ist lebendig, dynamisch und die treibende Kraft für Innovationen in vielen Branchen rund um den Globus. KI entwickelt sich stetig weiter. Genau wie wir alle. Von Visionären, Ärzten und Lotsen bis hin zu Künstlern, Sicherheitsexperten und Lehrern. KI hilft uns dabei, uns weiterzuentwickeln, und die nächsten Herausforderungen anzugehen.
The DGX POD is an optimized data center rack containing up to nine DGX-1 servers or three DGX-2 servers, storage servers, and networking switches to support single and multi-node AI model training and inference using NVIDIA AI software.
The RAPIDS suite of software libraries gives you the freedom to execute end-to-end data science and analytics pipelines entirely on GPUs. It relies on NVIDIA® CUDA® primitives for low-level compute optimization, but exposes that GPU parallelism and high-bandwidth memory speed through user-friendly Python interfaces.
Deep Learning Frameworks bieten die Möglichkeit eigene Entwürfe, Trainings und die Validierung von tiefen neuronalen Netzwerken über eine High-Level-Programmierschnittstelle zu erstellen. Weit verbreitete Deep-Learning-Frameworks wie Caffe2, Cognitive Toolkit, MXNet, PyTorch, TensorFlow und andere setzen auf GPU-beschleunigte Bibliotheken wie zum Beispiel cuDNN und NCCL.