vchalup - stock.adobe.com
GPU Cloud-Tools machen Machine Learning weniger komplex
Während KI auf GPUs boomt, bleibt der Aufbau einer Machine-Learning-Infrastruktur ein komplexer Prozess. Das Start-up Paperspace möchte den Prozess automatisieren.
Deep Learning und Machine Learning haben innovative Hardware hervorgebracht. Auf einer so fortschrittlichen Infrastruktur Anwendungen zu entwickeln, ist allerdings nicht einfach. Trotz einiger Erleichterungen müssen Teams viel Entwicklungszeit aufwenden, um ihre Jobs auf die neueste GPU- oder TPU-Machine-Learning-Infrastruktur umzustellen.
Diese Herkules-Aufgabe weckt bei Entwicklern großes Interesse an Data-Science-Plattformen. Diese können den Aufwand, Bibliotheken und andere Softwareelemente in Container zu packen, automatisieren. Das Ziel ist, die Software erfolgreich auf einer Machine-Learning-Infrastruktur in einer GPU-Cloud laufen zu lassen, lässt sich damit schneller und leichter erreichen.
Cloud-Anbieter, Hadoop-Distributoren, Spezialisten für maschinelles Lernen und andere haben eine solche Plattform eingeführt. Unter den Start-ups, die sich solchen Problemen dediziert widmen, ist auch der PaaS-Spezialist Paperspace. Das in Brooklyn, New York, ansässige Unternehmen hat seine Software stark weiterentwickelt. Es will damit einer größeren Gruppe von Entwicklern die Möglichkeit geben, hochgradig iterative, neuronale Netzwerke und KI-Workloads auf GPUs und anderer Hardware schnell und möglichst einfach zu implementieren.
Job Runner in der Cloud
Anfang 2018 hat Paperspace seine Gradienten-Tool-Suite eingeführt. Mit der Suite lassen sich neuronale Netzwerke trainieren und GPU-Cloud-Aufträge ausführen. Die Software enthält einen Job Runner, der es Entwicklern ermöglicht, lokale Jobs zur Verarbeitung in die Cloud zu schicken. Gleichzeitig werden Container und Jupyter Notebooks unterstützt. Mit Jupyter Notebook können Entwickler technische Berechnungen in einer interaktiven Umgebung parallel ausführen.
GPUs erlauben eine Art paralleles Rechnen, was in der Vergangenheit nicht ohne weiteres möglich war. Die Chips, die für große Datenmengen eine hohe Bandbreite bieten, werden laut Dillon Erb, Mitbegründer und CEO von Paperspace, immer häufiger für das Training von Deep-Learning-Netzen eingesetzt. Für die meisten IT-Anwender, aber auch Softwareentwickler, ist das eine schöne neue Welt.
„Möglicherweise treten wir in eine goldene Ära der Hardware ein – aber es bedeutet auch, eine Menge Infrastruktur-Management zu übernehmen“, sagt Erb.
GPUs sind aber nur ein Teil der kommenden Komplexität. In den nächsten Jahren werden heterogene Hardwareoptionen deutlich zunehmen. Das ist laut Erb auch ein guter Grund dafür, eine Technologiearchitektur einzusetzen, die von der Hardware abstrahiert.
„Heute verbringen Leute, die sich für maschinelles Lernen interessieren, enorm viel Zeit damit, die Teile zu bauen und zusammenzufügen“, sagt Erb. Damit sollte man sich aber seiner Meinung nach möglichst wenig aufhalten. Paperspace will das ändern und Wege finden, diese Infrastruktur als Teil eines Cloud-Services aufzubauen.
Erste Erfolge sind bereits zu sehen. Ein Mediziner und ein Technologe bescheinigen der Paperspace-Plattform eine Arbeitserleichterung bei der Ausführung von Machine Learning Jobs auf einer GPU-Cloud.
„Unser Entwicklungs-Team hatte eine Reihe von verschiedenen Plattformen benutzt und getestet. Wir haben festgestellt, dass Gradient in einem Bruchteil der Zeit, die die anderen brauchten, zu guten Ergebnissen kommt“, sagt Dr. Chris Morley, Mitbegründer und COO von MediVis, einem in New York ansässigen Start-up-Unternehmen, das Augmented Reality in Diagnostik und Planung von medizinischen Operationen einführt.
Morley erläutert, dass Gradient eine Reihe von Schritten beim Aufbau einer Machine-Learning-Infrastruktur verkürzt. „Die Plattform automatisiert Dinge, die die Entwicklerzeit beanspruchen. Etwa die Behandlung von Abhängigkeiten verschiedener KI-Bibliotheken und deren unterschiedliche Versionierung“, sagt er. „Es gibt so viele verschiebbare Teile in solchen Projekten.“
Machine Learning Tools und GPUs in der Medizin der Zukunft
Morleys Team kann solche Hilfe gebrauchen, denn die Ziele von MediVis sind anspruchsvoll. Das Unternehmen hat ungefähr zwei Jahre lang mit Augmented-Reality-Technologien gearbeitet, um ein Frontend-System zu entwickeln. Dieses sollte holografische Darstellungen von MRT- und CT-Daten liefern und es Chirurgen und Diagnostikern ermöglichen, digitale Körperrepräsentationen und Krankheiten von Patienten zu untersuchen.
Dr. Chris MorleyMediVis
MediVis verfolgt diese Ziele mit Backend-Arbeiten zur Anwendung von KI-Methoden auf die Erkennung von Tumoren. Ihr Anliegen ist es, MRT- und CT-Daten automatisch zu segmentieren und zu klassifizieren, um Tumore und andere Anomalien zu identifizieren. Das erfordert eine leistungsfähige Verarbeitung.
„In der medizinischen Bildgebung explodiert Deep Learning gerade“, sagt Morley. „GPUs gehören zu den grundlegenden Technologien, die anspruchsvolle Deep-Learning-Anwendungen ermöglichen.“
Egal ob Ärzte einen Tumor oder die normale Anatomie eines Menschen betrachten – es wird viel Zeit damit verbracht, Elemente in Datensätzen manuell zu analysieren, stellt Morley fest. „Die Verwendung von Paperspace-Tools zusammen mit traditionellen Methoden kann hier Zeit sparen.“
Bei jedem Schritt ist es wichtig, den Aufwand zu reduzieren. Die Verkürzung der Zeit, die Entwickler für die Einrichtung von Machine Learning Jobs benötigen, kann ebenso entscheidend sein wie die Verkürzung der Zeit, die Diagnostiker für die manuelle Inspektion medizinischer Bilder benötigen. „Auf jeden Fall wollen wir vermeiden, die ganze Zeit auf der Infrastrukturseite zu vergeuden“ , sagt Morley.
Paperspace ist nicht die einzige Machine-Learning-Plattform, die GPU Cloud Jobs unterstützt. Es gibt zum Beispiel auch die von H2O entwickelte GPU-spezifische H2O4GPU Plattform, FloydHub und die GPU Cloud-Angebote von Amazon Web Services.
Folgen Sie SearchEnterpriseSoftware.de auch auf Twitter, Google+, Xing und Facebook!