Wie die Datenverarbeitung bei der Digitalisierung gelingt
Die digitale Transformation erfordert eine veränderte Unternehmenskultur. Diese beeinflusst, wie, wann und in welcher Form Daten verarbeitet werden können.
Eines der zentralen Themen der vergangenen Jahre, das Unternehmen und Medien noch lange beschäftigen wird, ist die Digitalisierung. Angetrieben wird diese Entwicklung insbesondere durch den Anstieg der Datenmengen und die Nutzung dieser Daten. Doch das was in exemplarischen Projekten vielfach große Aufmerksamkeit erfährt, entspricht nicht zwangsläufig der Realität bei der Digitalisierung.
Dabei sind Daten längst das neue Gold. Denn die Big Five der Technologiebranche, auch unter dem Kürzel FAANG (Facebook, Amazon, Apple, Netflix, Google) bekannt, erwirtschaften ihre Marktkapitalisierung von 3,1 Billionen Dollar im Jahr 2019 zu einem großen Anteil durch Informationen. Auch Banken sind auf Daten angewiesen, um etwa Finanzbetrug oder Geldwäsche abzuwehren. Nicht zuletzt setzt die Automobilwirtschaft auf eine Fülle von Daten, zum Beispiel durch Sensoren am Fahrzeug oder durch Kommunikation mit der Infrastruktur oder anderen Fahrzeugen, um die Vision autonom fahrender Autos zu verwirklichen.
Digitalisierung erfordert Wandel
Jedoch erfordert die digitale Transformation eine Änderung der Unternehmenskultur sowie der Organisation und Prozesse. Denn diese Faktoren beeinflussen, wie, wann und in welcher Form Daten vorhanden sind beziehungsweise verarbeitet werden.
Zum Beispiel laufen analytische Workloads häufig noch unabhängig voneinander in Silos. Dies verhindert einen kohärenten Ansatz für Datenschutz. Daher sind hier zusätzliche Kontrollmechanismen notwendig, die Ressourcen binden, Kosten erhöhen und die Produktivität des Unternehmens einschränken. Zudem sind für eine Analyse notwendige Daten teilweise nicht verfügbar, da sie sich an unbekannten Orten befinden.
Selbst neuere Data Warehouses und Data Science Tools sind nicht auf einen ausreichenden Datenaustausch vorbereitet. Daher besitzen Unternehmen in diesen Fällen keine praktischen Möglichkeiten, Analysen sinnvoll durchzuführen oder Algorithmen für maschinelles Lernen auf ihre Daten anzuwenden. Ein weiteres Hindernis ist, dass sowohl traditionelle als auch moderne Cloud-Werkzeuge für Machine Learning und Analysen einen Einsatz von geschlossenem, proprietärem Speicher und Algorithmen erfordern. Um nun aussagefähige Ergebnisse zu erhalten, müssen Unternehmen in Kauf nehmen, dass sie im Wesentlichen die Kontrolle über ihre Daten verlieren.
Um diesem Dilemma zu überwinden, müssen diese Hindernisse überwunden werden. Das Ziel sollte sein, durch intelligente Analyse der Daten insgesamt, die Beziehung unterschiedlich gesammelter Daten über das gesamte Unternehmen hinweg und nicht nur in Teilbereichen zu erkennen und damit bessere Entscheidungen – sozusagen auf Daten basierend – zu treffen. Dies erfordert jedoch den Aufbau einer übergreifenden Datenplattform für das gesamte Unternehmen. Es sollte auf diese Weise seine Kultur und Arbeitsweisen datenzentriert ausrichten.
Nutzung des gesamten Instrumentariums
Dazu gehört es, dass mehrere Analysedisziplinen gleichzeitig auf Daten, gleichgültig welcher organisatorischen Abteilung, zugreifen und sie in ihre Auswertung einbeziehen können. Ebenso sollten Echtzeitdaten, etwa von Edge-Knoten am Rand des Netzwerks, verarbeitet und kontinuierlich im Rahmen eines Datenstroms übertragen werden. Sowohl Prognoseroutinen als auch maschinelles Lernen können dann auf diese gestreamten Informationen zugreifen. Um dies zu erreichen, empfiehlt sich der Einsatz einer Public Cloud, die hinsichtlich Agilität, Elastizität und Datendichte punkten kann.
Diese Daten-Cloud sollte eine Multifunktionsanalyse bieten, mit der verschiedene Geschäftszweige relevante Daten schnell identifizieren, aufnehmen und transformieren und sie in sinnvollen Analyse-Frameworks einsetzen können.
Zusätzlich sollten, um mehr Flexibilität zu erhalten, Hybrid- oder Multi-Cloud-Lösungen zum Einsatz kommen. So empfiehlt es sich, Daten möglichst dort zu verarbeiten, wo sie entstehen. Damit lassen sich Analysen schneller und besser angehen. Dies entspricht dem Edge-Computing-Konzept, bei dem Edge Devices die Informationen sammeln, untersuchen und die gewonnenen Erkenntnisse erst dann an eine zentrale Struktur zur Weiterverarbeitung übermitteln.
Hier können allerdings auch externe Datenquellen eine Rolle spielen. Daher sollte eine gleichwertige oder möglichst ähnliche Funktionalität sowohl in den verwendeten Private Clouds als auch Public Clouds geboten sein. Oft sind geschäftskritische Daten an mehreren Standorten vorhanden. So können sensible Datensätze intern gehalten werden, während gleichzeitig Proof-of-Concept-Anwendungen mit anonymisierten Daten in der Public Cloud stattfinden.
Offene Plattform wichtig
Was die Software betrifft, die auf dieser Cloud angewendet wird, sollte grundsätzlich eine offene Plattform Verwendung finden, die durchgängig Datensicherheit und Informationsmanagement überall dort sicherstellt, wo Analysen und Datenübertragungen stattfinden beziehungsweise Daten hinterlegt werden.
Ein nicht-proprietäres, offenes System verhindert, dass sich Unternehmen fest an einen Anbieter binden müssen, was analytische Entscheidungen aufgrund der Betriebsumgebung einschränken kann. Ferner kann ein Vendor Lock-in zur Folge haben, dass Unternehmen nicht über alle Rechte an Daten und Erkenntnissen verfügen.
Beispiel Deutsche Telekom
Ein Beispiel für die Nutzung einer Cloud-Datenplattform bietet ein Projekt der Deutsche Telekom. Ziel dieses Projektes war es, Streaming-fähige Datenmengen zu verarbeiten und gleichzeitig maschinelles Lernen und schnelle Analysen mit einer hohen Zuverlässigkeit zu ermöglichen. Eine Schlüsselkomponente war eine vertrauenswürdige und vollständig verwaltete Plattform sowie ein Ökosystem, in dem die Benutzer Daten austauschen und analysieren sowie multifunktionale, datengesteuerte Anwendungen entwickeln können.
„Unternehmensweite Daten-Clouds mit einer Big-Data-Plattform ermöglichen Unternehmen, aus ihren Daten aussagekräftige Erkenntnisse zu gewinnen und Innovationen zu fördern.“
Daniel Metzger, Cloudera
Durch die Implementierung der Cloud-Datenplattform – es kommt die Data Platform von Cloudera zum Einsatz – konnte die Deutsche Telekom unternehmensweit greifbare Resultate vorweisen. Es war zum Beispiel möglich, die durch Betrugsaktivitäten verursachten Umsatzverluste um zehn bis zwanzig Prozent reduzieren. Die verbesserte Datenanalyse führte außerdem zu einem tiefergehenden Verständnis der Kundenbedürfnisse. So konnte die Deutsche Telekom mit gezielten Kampagnen Umsätze in zweistelliger Millionenhöhe generieren und gleichzeitig die Kundenabwanderung reduzieren. Nicht zuletzt erreichte sie mit der Datenplattform eine um 50 Prozent gesteigerte betriebliche Effizienz.
Unternehmensweite Daten-Clouds mit einer Big-Data-Plattform ermöglichen Unternehmen, aus ihren Daten aussagekräftige Erkenntnisse zu gewinnen. Felder wie Edge Computing, künstliche Intelligenz, Machine Learning, Streaming-Analyse, Data Engineering, Data Warehousing und Data Science werden künftig in einem Big-Data-Umfeld immer vernetzter zusammenwirken, um dem Unternehmen den Vorsprung zu verschaffen, den es in einem umkämpften Markt benötigt.
Über den Autor:
Daniel Metzger ist Regional Vice President Central & Eastern Europe bei Cloudera.
Die Autoren sind für den Inhalt und die Richtigkeit ihrer Beiträge selbst verantwortlich. Die dargelegten Meinungen geben die Ansichten der Autoren wieder.