Getty Images/iStockphoto
Künstliche Intelligenz erfordert viel Vorarbeit
Künstliche Intelligenz ist nur so gut wie die Daten, mit der man sie füttert. Wer von der neuen Technologie profitieren will, muss daher die richtige Vorarbeit leisten.
Beim Thema künstliche Intelligenz (KI) bekommen die meisten Manager leuchtende Augen. Sie gilt als eine der wichtigsten Technologien unserer Zeit und Analysten sagen ihr eine goldene Zukunft voraus. Was dabei häufig unter den Tisch fällt: Künstliche Intelligenz ist keine Magie, sondern funktioniert nur, wenn man sie mit hochqualitativen Informationen versorgt. Sind Daten fehlerhaft, ungenau oder nicht für eine Fragestellung geeignet, trifft ein kognitives System falsche Entscheidungen.
Im Nachhinein schlechte Daten zu erkennen und herauszufiltern, ist bei KI-Anwendungen schon allein aufgrund der riesigen Datenmengen nahezu unmöglich. Ist ein kognitives System erst einmal in Fahrt, lässt sich oft gar nicht mehr nachvollziehen, auf Basis welcher Datenelemente bestimmte Vorhersagen entstanden sind. Um tatsächlich von künstlicher Intelligenz zu profitieren, sollten Unternehmen daher unbedingt im Vorfeld für hohe Datenqualität sorgen. Dafür brauchen sie qualifizierte Mitarbeiter und eine geeignete Informationsarchitektur.
Hohe Datenqualität schaffen
Es gibt einige gängige Kriterien, an der sich die Datenqualität festmachen lässt: Zum einen müssen Daten korrekt, genau, aktuell, vollständig und über mehrere Stufen eines Produktionsprozesses hinweg konsistent sein. Ganz entscheidend ist außerdem, dass die Daten für die jeweilige Fragestellung geeignet sind. Denn KI ist kein Selbstzweck, sondern hat in der Regel ein konkretes Ziel – zum Beispiel die Produktqualität vorherzusagen, Ausschuss zu vermeiden, die Wartung zu optimieren oder Kündigungsprävention zu betreiben. Unternehmen sollten sich deshalb zunächst überlegen, welche Frage sie mithilfe des kognitiven Systems gerne beantworten möchten. Anschließend gilt es zu prüfen, welche Daten dafür zur Verfügung stehen und ob diese Daten geeignet sind und ausreichen.
In einer automatisierten Produktionsumgebung liefert zum Beispiel die Maschinensteuerung Daten. Sie regelt etwa, dass eine Fräse zur richtigen Zeit am richtigen Ort bereitsteht oder dass das Förderband die richtige Geschwindigkeit hat. Maschinensteuerungsdaten sind wertvoll, reichen allein aber oft nicht aus, um zum Beispiel die Ergebnisqualität eines Produkts vorherzusehen. Dafür kann es erforderlich sein, auch Umgebungsdaten wie die Temperatur oder den Luftdruck in der Werkshalle mit einzubeziehen.
Entstehungsort, -zeit und Vertrauenswürdigkeit der Daten
Eine wichtige Rolle für die Beurteilung der Datenqualität spielt auch die Frage, wo und wann die Daten entstanden sind. Denn zu einem gewissen Grad sind Daten immer durch ihre Geografie und ihre kulturelle Umgebung geprägt. So lassen sich Kundendaten aus den USA oder China zum Beispiel nicht unbedingt auf das Konsumentenverhalten in Deutschland übertragen. Ganz entscheidend kann in manchen Fällen der Zeitpunkt sein, zu dem man Daten auswertet. Um etwa die Ergebnisqualität eines Produkts zu beurteilen, bringt es nichts, alle Sensordaten gleichzeitig zu analysieren – vielmehr muss man die zeitliche Abfolge der Fertigungsschritte berücksichtigen.
Wer Daten aus externen Quellen in eine KI-Anwendung mit einbezieht, sollte prüfen, ob diese auch vertrauenswürdig sind. Es muss zum Beispiel klar erkennbar sein, wer die Daten wo, wann und zu welchem Zweck erhoben hat. Daten aus renommierten Quellen sind in der Regel vertrauenswürdiger als solche aus einer beliebigen Online-Umfrage oder irgendwelchen Quellen aus dem Internet.
Die richtigen Mitarbeiter zusammenbringen
Ohne Menschen, die all diese Vorarbeiten leisten, bleibt eine KI dumm. Unternehmen brauchen Data Scientists, die geeigneten Daten auswählen, kreativ mit ihnen experimentieren und Algorithmen entwickeln. Genauso wichtig sind Data Engineers. Sie bereiten die Daten so vor, dass die Data Scientists überhaupt erst damit arbeiten können. Zu ihren Aufgaben gehört es zum Beispiel, die Daten zu beschaffen, zu transportieren, zu integrieren, sie zu speichern, zu bereinigen und zu verknüpfen.
„Im Nachhinein schlechte Daten zu erkennen und herauszufiltern, ist bei KI-Anwendungen schon allein aufgrund der riesigen Datenmengen nahezu unmöglich.“
Matthias Bauer, Axians IT Solutions
Darüber hinaus sollten die Datenspezialisten eng mit den Fachabteilungen zusammenarbeiten und interdisziplinäre Teams bilden. Das ist zum einen wichtig, um fachabteilungsspezifische Daten aus verschiedenen Bereichen zusammenzubringen und eine Mentalität des Datenhortens zu vermeiden. Zum anderen muss sich eine KI-Anwendung stets eng an der eigentlichen fachlichen Problemstellung orientieren. Dafür ist neben analytischen Skills domänenspezifisches Wissen gefragt.
Eine geeignete Informationsarchitektur aufbauen
Nicht zuletzt braucht eine KI auch die passende Infrastruktur. Sie bildet das Fundament für die Datenhaltung und Datenanalyse. Eine entscheidende Rolle spielt dabei eine Daten-Management-Plattform, die Daten aus verschiedenen Quellen zusammenführt und zentral speichert. Sie muss in der Lage sein, sowohl mit strukturierten als auch unstrukturierten Daten umzugehen. Nicht vergessen dürfen Unternehmen dabei eine saubere Metadaten-Verwaltung, um genau nachvollziehbar zu machen, woher die Daten stammen und wo sich welche Daten befinden. Das wird gerade vor dem Hintergrund der DSGVO für personenbezogene Daten Pflicht. Außerdem muss die Infrastruktur es ermöglichen, Daten in Echtzeit zu verarbeiten. Dafür eignen sich zum Beispiel Spark- oder Hadoop-Cluster. Welche Infrastruktur jeweils die richtige ist, hängt vom Einzelfall ab. So benötigt eine Warenkorbanalyse, die strukturierte Daten auswertet, ganz andere Voraussetzungen als eine prädiktive Qualitätsanalyse, bei der vielleicht auch Videodaten ausgewertet werden.
Fazit
Damit künstliche Intelligenz kein Zauberbegriff bleibt, der in leeren Versprechungen verpufft, muss man sie auf einer soliden Basis aufbauen. Dafür brauchen Unternehmen eine geeignete Informationsarchitektur, qualifizierte Datenspezialisten, interdisziplinäre Teams und vor allem eine hochqualitative Datengrundlage. Empfehlenswert wäre, die Rolle eines Datenkurators einzuführen, der einen Prozess zur Erforschung der Datenqualität etabliert. Der Aufwand lohnt sich. Denn wer künstliche Intelligenz erfolgreich einsetzt, verschafft sich künftig einen entscheidenden Wettbewerbsvorteil.
Über den Autor:
Matthias Bauer ist Executive Architect für analytische Lösungen bei Axians IT Solutions. Mit einem Erfahrungsschatz von mehr als 15 Jahren begleitete er über 12 Jahre lang als Consultant viele Kunden in BI- und Analytics Projekten und gilt sowohl in der Fachlichkeit als auch in der Technologie als anerkannter Experte. Seit 2011 berät er als Architekt technologische, fachliche, methodische und organisatorische Fragen in Big Data, Analytics, Datenintegration und Visualisierung.
Folgen Sie SearchNetworking.de auch auf Twitter, Google+, Xing und Facebook!