Machine Learning (maschinelles Lernen)
Machine Learning (ML), zu Deutsch maschinelles Lernen, ist eine Form der künstlichen Intelligenz (KI), die es Softwareanwendungen ermöglicht, Ergebnisse genauer vorherzusagen, ohne dass sie explizit dafür programmiert werden. Machine-Learning-Algorithmen verwenden historische Daten als Eingabewerte, um neue Ausgabewerte vorherzusagen.
Empfehlungsmaschinen (Recommendation Engines) sind ein häufiger Anwendungsfall für maschinelles Lernen. Andere beliebte Anwendungen sind Betrugserkennung, Spam-Filter, Erkennung von Malware-Bedrohungen, Automatisierung von Geschäftsprozessen (Business Process Automation, BPA) und vorausschauende Instandhaltung (Predictive Maintenance).
Machine Learning ist von Bedeutung, da es Unternehmen einen Einblick in Trends im Kundenverhalten und in betriebliche Muster gibt und die Entwicklung neuer Produkte unterstützt. Viele der heute großen Technologie-Unternehmen, zum Beispiel Facebook, Google und Uber, machen maschinelles Lernen zu einem zentralen Bestandteil ihres Betriebs. Machine Learning ist für viele Unternehmen zu einem bedeutenden Wettbewerbsunterscheidungsmerkmal geworden.
Was sind die verschiedenen Arten des maschinellen Lernens?
Klassisches Machine Learning wird oft danach kategorisiert, wie ein Algorithmus lernt, um in seinen Vorhersagen genauer zu werden. Es gibt vier grundlegende Ansätze: überwachtes Lernen (Supervised Learning), unüberwachtes Lernen (Unsupervised Learning), halbüberwachtes Lernen (Semi-Supervised Learning) und bestärkendes Lernen (Reinforcement Learning). Welche Art von Algorithmus Data Scientists verwenden, hängt davon ab, welche Art von Daten sie vorhersagen möchten.
- Überwachtes Lernen: Bei dieser Art des Machine Learning versorgen Data Scientists Algorithmen mit gelabelten Trainingsdaten und definieren die Variablen, die der Algorithmus auf Korrelationen untersuchen soll. Sowohl die Eingabe als auch die Ausgabe des Algorithmus ist spezifiziert.
- Unüberwachtes Lernen: Diese Art des Machine Learning umfasst Algorithmen, die auf nicht-gelabelte Daten trainieren. Der Algorithmus durchsucht Datensätze nach einem sinnvollen Zusammenhang. Die Daten, auf denen Algorithmen trainieren, sowie die Vorhersagen oder Empfehlungen, die sie ausgeben, sind vorgegeben.
- Halbüberwachtes Lernen: Bei diesem Ansatz des maschinellen Lernens handelt es sich um eine Mischung aus den beiden vorangegangenen Typen. Data Scientists füttern einen Algorithmus mit größtenteils gelabelten Trainingsdaten, doch das Modell kann die Daten selbständig erkunden und ein eigenes Verständnis des Datensatzes entwickeln.
- Bestärkendes Lernen: Data Scientists verwenden typischerweise bestärkendes Lernen, um einer Maschine beizubringen, einen mehrstufigen Prozess auszuführen, für den es klar definierte Regeln gibt. Data Scientists programmieren einen Algorithmus, um eine Aufgabe zu erledigen und geben ihm positive oder negative Hinweise, während er herausfindet, wie er eine Aufgabe erledigen soll. Aber größtenteils entscheidet der Algorithmus selbst, welche Schritte er auf seinem Weg machen muss.
Wie funktioniert überwachtes maschinelles Lernen?
Überwachtes maschinelles Lernen erfordert, dass der Data Scientist den Algorithmus sowohl mit gelabelten Eingaben als auch mit gewünschten Ausgaben trainiert. Algorithmen des überwachten Lernens eignen sich für folgende Aufgaben:
- Binäre Klassifizierung: Einteilung von Daten in zwei Kategorien.
- Mehrklassen-Klassifizierung: Auswahl zwischen mehr als zwei Arten von Antworten.
- Regressionsmodellierung: Vorhersage von kontinuierlichen Werten.
- Ensembling: Kombinieren der Vorhersagen mehrerer Machine-Learning-Modelle, um eine genaue Vorhersage zu erstellen.
Wie funktioniert unüberwachtes maschinelles Lernen?
Algorithmen für unüberwachtes maschinelles Lernen benötigen keine gelabelten Daten. Sie durchsuchen die nicht-gelabelten Daten nach Mustern, die zur Gruppierung von Datenpunkten in Untergruppen verwendet werden können. Die meisten Arten von Deep Learning, einschließlich neuronaler Netzwerke, sind unüberwachte Algorithmen. Unüberwachte Lernalgorithmen eignen sich für die folgenden Aufgaben:
- Clustering: Aufteilung eines Datensatzes in Gruppen basierend auf Ähnlichkeit.
- Anomalieerkennung: Identifizieren von ungewöhnlichen Datenpunkten in einem Datensatz.
- Assoziationsanalyse: Identifizierung von Gruppen von Elementen in einem Datensatz, die häufig zusammen auftreten.
- Dimensionalitätsreduktion: Reduzieren der Anzahl von Variablen in einem Datensatz.
Wie funktioniert halbüberwachtes Lernen?
Halbüberwachtes Lernen funktioniert, indem Data Scientists eine kleine Menge an gelabelte Trainingsdaten an einen Algorithmus weitergeben. Daraus lernt der Algorithmus die Dimensionen des Datensatzes, die er dann auf neue, nicht-gelabelte Daten anwenden kann. Die Leistung von Algorithmen verbessert sich in der Regel, wenn sie auf gelabelten Datensätzen trainieren. Das Labeln von Daten kann jedoch zeitaufwendig und teuer sein. Halbüberwachtes Lernen bildet einen Mittelweg zwischen der Leistung von überwachtem Lernen und der Effizienz von unüberwachtem Lernen. Einige Bereiche, in denen halbüberwachtes Lernen eingesetzt wird, sind:
- Maschinelle Übersetzung: Das Erlernen von Algorithmen zur Übersetzung von Sprache auf der Basis von weniger als einem vollständigen Wörterbuch.
- Betrugserkennung: Identifizierung von Betrugsfällen, wenn nur wenige positive Beispiele vorliegen.
- Labeln von Daten: Algorithmen, die auf kleinen Datensätzen trainiert wurden, können lernen, Datenlabel automatisch auf größere Sätze anzuwenden.
Wie funktioniert bestärkendes Lernen?
Bestärkendes Lernen funktioniert, indem ein Algorithmus mit einem bestimmten Ziel und einem vorgegebenen Satz von Regeln zur Erreichung dieses Ziels programmiert wird. Data Scientists programmieren den Algorithmus so, dass er nach positiven Belohnungen sucht – die er erhält, wenn er eine Aktion ausführt, die zum Ziel führt – und Bestrafungen vermeidet – die er erhält, wenn er eine Aktion ausführt, die ihn weiter von seinem Ziel entfernt. Bestärkendes Lernen wird häufig in folgenden Bereichen eingesetzt:
- Robotik: Roboter können mit dieser Technik lernen, Aufgaben in der physischen Welt auszuführen.
- Videospiele: Reinforcement Learning wird verwendet, um Bots das Spielen einer Reihe von Videospielen beizubringen.
- Ressourcenmanagement: Angesichts endlicher Ressourcen und eines definierten Ziels kann bestärkendes Lernen Unternehmen dabei helfen, die Zuteilung von Ressourcen zu planen.
Wer verwendet Machine Learning und wofür wird es eingesetzt?
Machine Learning wird heute in einer Vielzahl von Anwendungen eingesetzt. Eines der bekanntesten Beispiele für Machine Learning ist die Empfehlungsmaschine, die der News-Feed von Facebook verwendet.
Facebook nutzt Machine Learning, um die Anzeige des Feeds für jedes Mitglied zu personalisieren. Wenn ein Mitglied häufig Beiträge einer bestimmten Gruppe liest, beginnt die Empfehlungsmaschine, mehr Aktivitäten dieser Gruppe früher im Feed anzuzeigen.
Hinter den Kulissen versucht die Maschine, bekannte Muster im Online-Verhalten des Mitglieds zu verstärken. Sollte das Mitglied sein Verhalten ändern und in den kommenden Wochen keine Beiträge dieser Gruppe lesen, wird der News-Feed entsprechend angepasst.
Neben den Empfehlungsmaschinen gibt es weitere Einsatzmöglichkeiten für Machine Learning:
- Customer Relationship Management (CRM). CRM-Software kann Machine-Learning-Modelle verwenden, um E-Mails zu analysieren und Mitglieder des Vertriebsteams aufzufordern, die wichtigsten Nachrichten zuerst zu beantworten. Fortschrittlichere Systeme können sogar potenziell effektive Antworten empfehlen.
- Business Intelligence (BI). BI- und Analyse-Anbieter setzen Machine Learning in ihrer Software ein, um potenziell wichtige Datenpunkte, Muster von Datenpunkten und Anomalien zu identifizieren.
- Personalinformationssysteme. Die Systeme können Machine-Learning-Modelle verwenden, um Bewerbungen zu filtern und die besten Kandidaten für eine offene Stelle zu identifizieren.
- Selbstfahrende Autos. Machine-Learning-Algorithmen können es einem teilautonomen Auto ermöglichen, ein teilweise sichtbares Objekt zu erkennen und den Fahrer zu warnen.
- Virtuelle Assistenten. Intelligente Assistenten kombinieren typischerweise überwachte und unüberwachte Machine-Learning-Modelle, um natürliche Sprache zu interpretieren und Kontext zu liefern.
Was sind die Vor- und Nachteile des maschinellen Lernens?
Machine Learning kommt in verschiedenen Szenarien zum Einsatz. Was die Vorteile angeht, so kann Machine Learning Unternehmen helfen, ihre Kunden auf einer tieferen Ebene zu verstehen. Durch das Sammeln von Kundendaten und deren Korrelation mit dem Kundenverhalten im Laufe der Zeit können Machine-Learning-Algorithmen Assoziationen lernen und Teams dabei helfen, Produktentwicklung und Marketinginitiativen auf die Kundennachfrage abzustimmen.
Einige Unternehmen nutzen Machine Learning als primären Treiber in ihren Geschäftsmodellen. Uber nutzt zum Beispiel Algorithmen, um Fahrer mit Fahrern zusammenzubringen. Google nutzt maschinelles Lernen, um die Fahrtenanzeigen in der Suche anzuzeigen.
Doch Machine Learning hat auch Nachteile. In erster Linie kann es teuer sein. Projekte zum maschinellen Lernen werden in der Regel von Data Scientists durchgeführt, die hohe Gehälter beziehen. Diese Projekte erfordern auch eine Software-Infrastruktur, die teuer ist.
Außerdem gibt es das Problem der Verzerrung durch maschinelles Lernen. Algorithmen, die auf Datensätzen trainiert werden, die bestimmte Populationen ausschließen oder Fehler enthalten, können zu ungenauen Modellen der Welt führen, die im besten Fall versagen und im schlimmsten Fall diskriminierend sind. Wenn ein Unternehmen seine Kerngeschäftsprozesse auf voreingenommene Modelle stützt, kann dies zu regulatorischen Problemen und Reputationsschäden führen.
So wählt man das richtige Modell für Machine Learning
Der Prozess der Auswahl des richtigen Machine-Learning-Modells zur Lösung eines Problems kann zeitaufwendig sein, wenn nicht strategisch vorgegangen wird.
Schritt 1: Richten Sie das Problem an potenziellen Dateneingaben aus, die für die Lösung berücksichtigt werden sollten. Dieser Schritt erfordert die Unterstützung von Data Scientists und Experten, die ein tiefes Verständnis für das Problem haben.
Schritt 2: Sammeln Sie Daten, formatieren und labeln Sie die Daten, falls erforderlich. Dieser Schritt wird typischerweise von Data Scientists mit Unterstützung von Data Wranglern durchgeführt.
Schritt 3: Wählen Sie aus, welcher Algorithmus verwendet werden soll und testen Sie, um zu sehen, wie gut dieser funktioniert. Dieser Schritt wird in der Regel von Data Scientists durchgeführt.
Schritt 4: Weitere Feinabstimmung der Ausgaben, bis ein akzeptables Maß an Genauigkeit erreicht wird. Dieser Schritt wird in der Regel von Data Scientists mit Feedback von Experten durchgeführt, die ein tiefes Verständnis für das Problem haben.
Die Bedeutung von menschlich interpretierbarem maschinellem Lernen
Zu erklären, wie ein bestimmtes Machine-Learning-Modell funktioniert, kann eine Herausforderung sein, wenn das Modell komplex ist. Es gibt einige vertikale Branchen, in denen Data Scientists einfache Modelle für Machine Learning verwenden müssen, weil es für das Unternehmen wichtig ist, zu erklären, wie jede Entscheidung getroffen wurde. Dies gilt vor allem für Branchen mit hohem Compliance-Aufwand wie Banken und Versicherungen.
Komplexe Modelle können zwar genaue Vorhersagen liefern, aber es kann schwierig sein, einem Laien zu erklären, wie eine Ausgabe ermittelt wurde.
Wie sieht die Zukunft des maschinellen Lernens aus?
Machine-Learning-Algorithmen gibt es zwar schon seit Jahrzehnten, sie haben aber mit der zunehmenden Bedeutung der künstlichen Intelligenz neue Popularität erlangt. Vor allem Deep-Learning-Modelle treiben die fortschrittlichsten KI-Anwendungen von heute an.
Plattformen für maschinelles Lernen gehören zu den am stärksten umkämpften Bereichen der Unternehmenstechnologie. Die meisten großen Anbieter, darunter Amazon, Google, Microsoft, IBM und andere Firmen, wetteifern darum, Kunden für Plattformdienste zu gewinnen, die das gesamte Spektrum der Machine-Learning-Aktivitäten abdecken, einschließlich Datensammlung, Datenaufbereitung, Datenklassifizierung, Modellerstellung, Training und Anwendungsbereitstellung.
Da Machine Learning immer mehr an Bedeutung für den Geschäftsbetrieb gewinnt und KI in Unternehmen immer praktikabler wird, verschärft sich der Kampf um Plattformen für maschinelles Lernen.
Die fortlaufende Forschung im Bereich Deep Learning und KI konzentriert sich zunehmend auf die Entwicklung allgemeinerer Anwendungen. Heutige KI-Modelle erfordern umfangreiches Training, um einen Algorithmus zu erzeugen, der hochgradig für die Ausführung einer Aufgabe optimiert ist. Einige Wissenschaftler erforschen jedoch Möglichkeiten, Modelle flexibler zu gestalten und suchen nach Techniken, die es einer Maschine ermöglichen, den aus einer Aufgabe gelernten Kontext auf zukünftige, andere Aufgaben anzuwenden.
Wie hat sich Machine Learning entwickelt?
1642 – Blaise Pascal erfindet eine mechanische Maschine, die addieren, subtrahieren, multiplizieren und dividieren kann.
1679 – Gottfried Wilhelm Leibniz erfindet das System des Binärcodes.
1834 – Charles Babbage hat die Idee für ein allgemeines, universell einsetzbares Gerät, das mit Lochkarten programmiert werden kann.
1842 – Ada Lovelace beschreibt eine Abfolge von Operationen zur Lösung mathematischer Probleme mit Unterstützung der Idee der Lochkartenmaschine von Charles Babbage und wird die erste Programmiererin.
1847 – George Boole entwickelt die Boolesche Logik, eine Form der Algebra, in der alle Werte auf die binären Werte wahr oder falsch reduziert werden können.
1936 – Der englische Logiker und Kryptoanalytiker Alan Turing schlägt eine universelle Maschine vor, die einen Satz von Anweisungen entschlüsseln und ausführen kann. Sein veröffentlichter Beweis gilt als Grundlage der Computerwissenschaft.
1952 – Arthur Samuel entwickelt ein Programm, mit dem ein IBM-Computer je mehr er spielt, besser im Damespiel wird.
1959 – MADALINE wird das erste künstliche neuronale Netzwerk, das auf ein reales Problem angewendet wird: das Entfernen von Echos aus Telefonleitungen.
1985 – Terry Sejnowskis und Charles Rosenbergs künstliches neuronales Netzwerk hat sich selbst beigebracht, 20.000 Wörter in einer Woche richtig auszusprechen.
1996 – IBMs Deep Blue besiegt den Schachgroßmeister Garry Kasparov.
1999 – Der Prototyp einer intelligenten CAD-Workstation überprüft 22.000 Mammogramme und erkennt Krebs 52 Prozent genauer als Radiologen.
2006 – Der Informatiker Geoffrey Hinton erfindet den Begriff Deep Learning, um die Forschung an neuronalen Netzen zu beschreiben.
2012 – Ein von Google entwickeltes unüberwachtes neuronales Netzwerk lernt, Katzen in YouTube-Videos mit 74,8 Prozent Genauigkeit zu erkennen.
2014 – Ein Chatbot besteht den Turing-Test, indem er 33 Prozent der menschlichen Richter davon überzeugt, dass er ein ukrainischer Teenager namens Eugene Goostman ist.
2014 – AlphaGo von Google besiegt den menschlichen Champion in Go, dem schwierigsten Brettspiel der Welt.
2016 – LipNet, das System für künstliche Intelligenz von DeepMind, identifiziert lippengelesene Wörter in Videos mit einer Genauigkeit von 93,4 Prozent.