Deep Learning Frameworks bieten die Möglichkeit eigene Entwürfe, Trainings und die Validierung von tiefen neuronalen Netzwerken über eine High-Level-Programmierschnittstelle zu erstellen. Weit verbreitete Deep-Learning-Frameworks wie Caffe2, Cognitive Toolkit, MXNet, PyTorch, TensorFlow und andere setzen auf GPU-beschleunigte Bibliotheken wie zum Beispiel cuDNN und NCCL.
Entwickler, Forscher und Datenwissenschaftlern erhalten einfachen Zugriff auf NVIDIA optimierte Deep Learning Framework Container, die auf die Leistung von NVIDIA Grafikprozessoren abgestimmt und getestet sind. Dadurch entfällt die Notwendigkeit, Pakete und Abhängigkeiten zu verwalten oder tiefe Lernframeworks aus dem Quellcode zu erstellen.
Die unterschiedlichen Frameworks werden von Datenwissenschaftlern und Forschern genutzt, um neuronale Netzmodelle zu designen. Hierbei werden aufwendige Algorithmen in komplexen Variationen berechnet und Rohdateien ausgelesen.
Künstliche neuronale Netzwerke stammen aus dem Forschungsbereich der Informatik. Die künstlichen neuronalen Netze haben, ebenso wie künstliche Neuronen, ein biologisches Vorbild. Man stellt sie den natürlichen neuronalen Netzen gegenüber, welche Nervenzellvernetzungen im Gehirn und im Rückenmark bilden.
Die Architekturen bestehen aus Schichten von miteinander verbundenen Verarbeitungselementen, die Neuronen genannt werden. Neuronen werden für eine bestimmte Anwendung oder Aufgabe durch einen Prozess namens Training konfiguriert.
Nachfolgend finden Sie eine Liste der beliebtesten Lernframeworks, einschließlich Lernressourcen und Links zu Einstiegsressourcen.
FRAMEWORK
EIGENSCHAFTEN
UNTERSCHEIDUNGSMERKMALE
Einfache Bedienung - gut definierte APIs, Dokumentation
Flexibel - ideal für Forschung und Prototyping neuer Ideen
Verschiedene Optionen für die Produktivitätsschicht: TensorFlow Slim, SKflow, PrettyTensor, Keras, TFLearn u.a.
Großes Engagement und Unterstützung in der Community
Großer Bestand an vorhandenen TensorFlow-Proben und Code
Grafische Darstellungen über TensorBoard
Python-Schnittstelle
Automatische Unterscheidungsmerkmale als symbolischer Ausdruck
Berechnungsgrafik-Optimierungen und on-the-fly Code-Generierung für die Geschwindigkeit, numerische Stabilität und Speicherverbrauch
Keras Produktivitätsschicht
Wenig flexibel für die Suche nach neuen Ideen
Älteres Framework mit vielen vorhandenen Code-Beispielen
Python-basiert, mit numpy-Integration
Kein-multiGPU
Entwickelt für Computer Vision Framework Probleme
Zu starr für die Erforschung neuer Algorithmen
Caffe wird Gewartet. Es wird davon ausgegangen dass Caffe2 verwendet wird.
Caffe wird von NVIDIA gewartet und aktualisiert
Bietet optimierte Leistung auf neuester GPU-Hardware
Leistungsstarkes, skalierbares Framework für den Einsatz in der Produktion
Plattformübergreifend einsetzbar
Modularität und Erweiterbarkeit
Unterstützung für den mobilen Einsatz
Produktionsbereitschaft - weit verbreitet bei Facebook für Schulungen und Facebook Mobile Apps für Inferenzen
Behebt Mängel von Caffe, mit Python-Unterstützung und Modularität
Modelle, mit schnellen Prototypen die einfach zu debuggen sind