JRB - stock.adobe.com
Wirkliche Datenmobilität erfordert exakte Vorbereitung
Datenmobilität ist mittlerweile ein Faktor für Geschäftserfolg, insbesondere, wenn Mitarbeiter nicht an einem zentralen Ort arbeiten. Es bedarf hierfür aber guter Planung.
Cloud Computing hat durch die Pandemie noch einmal einen Schub bekommen. Unternehmen schickten ihre Mitarbeitenden ins Home-Office, der ortsunabhängige Datenzugriff wurde zum entscheidenden Faktor, um arbeitsfähig zu bleiben. IT-Verantwortliche standen derweil vor der Frage, wie sich der mobile Datenzugriff sicher gestalten lässt. Wer auf effektive und sichere Datenmobilität setzen will, muss zunächst einmal in der Dateninfrastruktur des Unternehmens ansetzen.
Die grundlegende Herausforderung bei der Einführung totaler Datenmobilität ist eigentlich ein alter Hut. Schon zu Beginn der Einführung von Business-Intelligence-Lösungen hieß die Situationsbeschreibung: „Wenn die Unternehmen wüssten, was sie alles wissen.“ Damit wurde darauf angespielt, dass Daten verteilt im Unternehmen lagen und kaum einer wusste, wo was zu finden war. Der Zukunftsforscher John Naisbitt brachte es auf die Formel: „Wir ertrinken in Informationen, uns dürstet nach Wissen!“
Daran hat sich auch heute nicht viel geändert. Der Anspruch, jederzeit und von jedem Ort aus auf Unternehmensdaten zugreifen zu können, lässt sich nicht so ohne weiteres erfüllen. Datensilos, in der Form, in der Abteilungen ihre eigene Datenhaltung bevorzugen, gibt es seit den Anfängen der IT. Konzepte wie BYOD (Bring on Your Own Device) haben zudem dafür gesorgt, das Mitarbeitende Daten lokal auf eigener Hardware ablegen. Da den Überblick zu behalten, fällt schwer – und auch das vermeintliche Allheilmittel Cloud hilft dabei auf Anhieb nicht weiter.
Zumeist Multi-Cloud-Lösungen im Einsatz
Zumal es „die Cloud“ in den Unternehmen gar nicht gibt. Meistens kommt eine hybride Cloud-Lösung zum Einsatz, die dann auch noch von unterschiedlichen Herstellern stammt. Grundsätzlich steht die Bezeichnung Hybrid Cloud für eine Mischform aus Private und Public Cloud, hinter letzterer verbergen sich die Angebote der bekanntesten Anbieter wie Microsoft, Amazon und Google (gerne auch als Hyperscaler) bezeichnet. In der Realität kombinieren Unternehmen diese Angebote und setzen auf eine Multi-Cloud-Lösung.
Eine Private Cloud kennzeichnet ein exklusives, nur für ein Unternehmen nutzbares Angebot, während die Public Cloud nach dem Prinzip „One to many“ funktioniert. Eine Private Cloud kann auf eigenem Equipment eingerichtet werden oder, wie die Public Cloud, im Rechenzentrum eines Cloud-Anbieters laufen. Die von vielen Unternehmen bevorzugte Hybrid Cloud ist eine Kombination aus beidem, bei der dann naturgemäß die Daten an unterschiedlichen Orten liegen.
Verkompliziert wird die Situation zusätzlich, wenn ein Unternehmen unterschiedliche Cloud-Services von unterschiedlichen Anbietern nutzt. Zur Vereinfachung des Managements einer solch heterogenen Lösung stehen zwar entsprechende Tools zur Verfügung, die alle kombinierten Teillösungen wie eine gesamte erscheinen lassen. Es bleibt aber das Problem der verteilen Datenhaltung. Ganz zu schweigen von den Herausforderungen an Datenschutz und Datensicherheit, bei denen der rechtliche Rahmen dringend zu beachten ist.
Vorteil: Zentralisiertes Datenmodell
Um ein Konzept größtmöglicher Datenmobilität umzusetzen, ist es also zunächst erforderlich zu analysieren: Wo liegen welche Daten? Dazu ist es wichtig, dass die IT-Abteilung eng mit den Business-Verantwortlichen zusammenarbeitet. Nach dieser Analyse müssen klare Regeln vorgegeben werden, um nicht nur den Ablageort zu definieren, sondern auch Datensicherung und Datenzugriff zu strukturieren. Auch ist es wichtig, an diesem Punkt des Projekts verlässliche Regeln für die Nutzer eigener Hardware zu definieren, beispielsweise dass eine Datensicherung grundsätzlich immer in der Cloud zu erfolgen hat. Es gilt also, ein möglichst lückenloses Datenmodell zu entwickeln.
Ein zentralisiertes Datenmodell bietet an dieser Stelle zahlreiche Vorteile. Konkret geht es darum, eine Infrastruktur aufzubauen, auf der zentral alle im Unternehmen vorhandenen Daten gespeichert sind. Für diese Infrastruktur lassen sich relativ problemlos Dinge des alltäglichen Gebrauchs implementieren: Die Regelung der Zugriffsrechte und der Prozess der Datensicherung (wie Zeitpunkt oder Umfang). Wichtig ist, ein abstrahiertes Modell zu entwickeln, das sich nicht zu sehr an den eingesetzten Datenbanken orientiert.
Datenbanken veralten, werden ausgetauscht oder umgestaltet. Da ist es von Vorteil, ein allgemeines Format zu wählen. Dieser Schritt auf dem Weg zu Datenmobilität ist umfangreich, es lohnt sich aber, ihn mit Akribie zu gehen. Am Ende ist fix definiert, wo die Daten abgelegt sind und wie man sie sichern kann. Außerdem können erst über diesen zentralen Zugriff die maximalen Erkenntnisse bei Data Analytics und künstlicher Intelligenz erreicht werden – denn nur, wenn die Daten bekannt sind, können sie auch verwendet werden.
Einem Irrglauben unterliegt allerdings, wer davon ausgeht, dass nun automatisch sämtliche Datensilos verschwunden sind. Mit einem zentralisierten Datenmodell lassen sich die „abteilungsweiten Datensilos“ beseitigen, die „anwendungsbedingten Silos“ bleiben aber erhalten. Das fängt schon bei den unterschiedlichen Formaten und spezifischen Eigenheiten von Unternehmenslösungen wie ERP-Systemen an.
Dazu kommt noch, dass auch die unterschiedlichen Cloud-Anbieter, die im Unternehmen zu finden sind, auf unterschiedliche Arten der Datenhaltung setzen. Kurzum, mit einigen Silos wird man auch bei einem zentrierten Datenmodell leben müssen. Hier gibt es noch Luft zur Vereinfachung, wenn für die Datenspeicherung ein möglichst neutrales Format zum Einsatz kommt.
Die Fleißarbeit lohnt sich
Neben verbindlichen Richtlinien für Backup und Datensicherheit zählt der einfache Zugriff durch Anwendungen und Mitarbeitenden zu den kritischen Erfolgsfaktoren der Datenmobilität. Natürlich sollten die verwendeten Daten stets aktuell sein, so dass von Anfang an darauf geachtet werden muss, dass eine sogenannte „Geo Replication“, also das effiziente Duplizieren von Daten über mehrere physische Standorte hinweg, möglich ist. Für ein hohes Maß an Flexibilität sorgt der Multi Protocoll Store Access, durch den sowohl Daten als auch Objekte über verschiedene Protokolle, wie zum Beispiel S3, NFS, CIFS, HDFS und POSIX zugreifbar sind.
„Kurzum, mit einigen Silos wird man auch bei einem zentrierten Datenmodell leben müssen. Hier gibt es noch Luft zur Vereinfachung.“
Peter Kruth, Huawei Technologies
„Daten sind das neue Öl“ hieß es 2017 in einem Artikel des Economist. Seitdem hat sich der Wahrheitsgehalt dieser Behauptung in der Realität mehrfach bestätigt. Daten sind zweifelsfrei das wichtigste Asset der digitalen Wirtschaft. Um so wichtiger ist es, dass jeder Mitarbeitende eines Unternehmens zu jeder Zeit und an jedem Ort sicheren Datenzugriff hat. Hierzu ist die Datenmobilität der Schlüssel – auch wenn deren Umsetzung einiges an Detailarbeit erfordert.
Über den Autor:
Peter Kruth ist Europe FSI CTO bei Huawei Technologies CO., LTD. Basierend auf einem breiten Wissen über IT-Infrastrukturen, Cloud-Lösungen bis zu Anwendungssystemen und umfangreichen Erfahrungen mit Enterprise-Kunden aus verschiedenen Industriebereichen ist Peter verantwortlich für das Design und die Architektur von effizienten kundenspezifischen Rechenzentrums-Lösungen. Der Fokus liegt dabei auf flexiblen Cloud und KI-unterstützten Technologien. In der Freizeit beschäftigt er sich unter anderem mit der Entwicklung von Progressive Web Apps (PWA) im IoT-Umfeld.
Die Autoren sind für den Inhalt und die Richtigkeit ihrer Beiträge selbst verantwortlich. Die dargelegten Meinungen geben die Ansichten der Autoren wieder.