Automatisiertes Datenmanagement wichtig für die IT-Zukunft
Die Automatisierung des Datenmanagements spielt eine wichtige Rolle bei der Bewältigung von Zettabyte-Szenarien: Die Menge der erzeugten Daten könnte den Storage überfordern.
Wie viele unserer Leser wissen, dass wir uns mit der Idee der automatisierten Datenverwaltung beschäftigen. Die Datenverwaltung ist der eigentliche Knackpunkt, wenn es um die Zukunft der IT geht.
Man kann noch so viel Software-defined Lösungen implementieren, Hyperkonvergenz umsetzen bis der Arzt kommt, aber Fakt ist, dass die kommende Datenflut Probleme bringen wird. Erst recht, wenn Anwender nach wie vor schnelle Analysen und Schutz der Privatsphäre der Datenerzeuger zugleich gewährleisten wollen. Es wird zu viele Daten, zu viel Speicherinfrastruktur und zu viele Speicherdienste geben, die von menschlichen Administratoren wahrscheinlich nicht verwaltet werden können. Es wird eine Art automatisierte Technologie benötigt. Die Zeit läuft jedoch ab: Die Zettabyte-Ära ist am Horizont.
Die kommende Zettabyte-Ära
IDC prognostizierte bis 2024 mehr als 160 ZByte – das ist eine 1, gefolgt von 17 Nullen – an neuen Daten. Microsoft-Azure-Analysten berichteten vor etwa einem Jahr, dass die gesamte jährliche Produktionskapazität von Anbietern von Festplatten- und nichtflüchtigen RAM-Speichern insgesamt fast 1,5 ZByte betrug. Rein mathematisch ist es klar, dass wir dieses Datenvolumen nicht hosten können, das sich mit den verfügbaren Geräten ansammelt.
Es stimmt positiv, dass Industrie-Experten erklären, dass die Defizite durch neue Technologien zur Datenreduktion und Datenkompression ausgeglichen werden. Ich kann jedoch nicht anders, als mich daran zu erinnern, dass niemand jemals die 70:1 Reduktionsverhältnisse bekommen hat, die die Anbieter von Deduplizierungen in der ersten Dekade des Jahrtausends versprochen haben. Deshalb bin ich nicht so begeistert wie andere.
Verbesserungen der Effizienz der Kapazitätsauslastung durch Innovationen wie Fraktalspeicher, die fraktale statt binäre Algorithmen zur Datenspeicherung verwenden, sind vielversprechender. Dies könnte uns dazu bringen, massiv mehr Inhalte auf dem gleichen Footprint zu speichern, den wir jetzt haben. Noch einfacher wäre es, optimierte Speichermechanismen zu verwenden, die alle Datenkopien eliminieren und die gleichzeitige Nutzung aller Arten von Speicher - Datei, Block und Objekt - ermöglichen. (StorOne ist hier aufgrund seiner Kernpatente auf diesem Gebiet wichtig.)
Letztendlich wird Storage in Richtung Hyper-Scale schnellen und es wird einfach zu viele Daten zu verwalten geben. Es überrascht nicht, dass Backup-Anbieter zu den ersten gehören, die sich damit konfrontiert sahen und sehen.
Ein möglicher Ausgangspunkt
Dave Russell, Vice President of Enterprise Strategy bei Veeam Software, verweist auf ein Diagramm dessen, was er die Reise zu intelligentem oder automatisiertem Datenmanagement nennt. Von Veeam kommend, war es nicht verwunderlich, dass der Ausgangspunkt des Diagramms das Backup war.
Das Backup ist eine zentrale Datenverwaltungsfunktion. Der einzige Weg, Daten zu schützen, besteht darin, eine Kopie – ein Backup – zu erstellen, die sicher und unbedenklich gespeichert und wiederhergestellt werden kann, wenn die Originaldaten beschädigt oder gelöscht werden. Einfaches Data-Protection-Basiswissen.
Für Russell ist Backup ein Startpunkt, um die Reise zum intelligenten Datenmanagement zu beginnen. Ich stimme zu, wenn auch möglicherweise aus anderen Gründen. Um eine Sicherung effektiv durchführen zu können, müssen Sie auf der Grundlage einer Auswertung der Geschäftsprozesse, definieren, welche Daten gesichert werden sollen und, basierend auf der Zugriffs- und Aktualisierungsfrequenz der Daten, wie oft.
Diese Art der Datenklassifizierung führt zu einer Datenschutzrichtlinie für bestimmte Daten, die Administratoren letztendlich zu einer Richtlinie für das Data Lifecycle Management ausbauen können. Russell sagt, dass sich der anfängliche Fokus auf die Sicherung von Daten, die mit einem bestimmten Server-Storage-Kit verbunden sind, im Laufe der Zeit zu einem aggregierten Ansatz ausdehnen wird, der viele Server und Speichereinheiten oder sogar mehrere Clouds umfasst. Diese Entwicklung erfordert ein besseres Instrumentarium für die Verwaltung vieler Datenschutzprozesse in verschiedenen Infrastrukturen, das eine größere administrative Effizienz und Transparenz ermöglicht. Zu diesem Zeitpunkt kann die Automatisierung proaktiver werden, indem sie dem automatisierten Datenmanagementsystem ermöglicht, Richtlinien auf Daten anzuwenden und notwendige Schutzaufgaben auszuführen.
Auf Russells Diagramm tritt ein interessanter Übergang auf. Diese Sichtbarkeitsphase markiert einen Wechsel von der richtlinienbasierten Datenverwaltung zur verhaltensbasierten Datenverwaltung. Das Verhalten der Daten bildet die Grundlage für die Klassifizierung und Bereitstellung notwendiger Speicherressourcen für die Speicherung und geeigneter Dienste für den Schutz, die Aufbewahrung (Archivierung) und die Privatsphäre (Sicherheit), bis die gesamte Datenverarbeitung vollständig automatisiert ist – die letzte Stufe in Russells Diagramm.
Es gibt mehrere Ansätze
Mir gefällt die Idee, von richtlinienbasiertem zu verhaltensbasiertem Management zu wechseln, aber es kann schwierig sein, mit Kunden zu kommunizieren. Ein Anbieter, der Anfang dieses Jahres mit einer kognitiven Datenmanagement-Konzeption zur automatisierten Datenverwaltung auf den Markt kam, stellte fest, dass der „kognitive“ Teil die Akzeptanz behinderte. Die Leute sind sich nicht ganz sicher, was sie von Computern halten sollen, die automatisch das Datenverhalten bewerten und Maßnahmen ergreifen.
Ein Mitarbeiter der Firma für kognitives Datenmanagement sagte mir, er habe versucht, die Metapher eines fahrerlosen Autos zu verwenden, um das Konzept zu vermitteln. Das funktionierte nicht gut, als Tests von autonomen Fahrzeugen mehrere Wracks und Verletzungen aufgrund fehlerhafter Programmierung und langsamer Netzwerk-Updates verursachten.
Seitdem hat er seine Marketingbotschaft neu gestaltet, um vorzuschlagen, dass sein Produkt die Datenmigration automatisiert und gewinnt dadurch einiges an Aufmerksamkeit, denn die Datenmigration ist der Fluch der meisten Speicheradministratoren, eine undankbare Aufgabe, die den Großteil ihres Arbeitstages in Anspruch nimmt. Wie Veeam, die versuchen, vom Ausgangspunkt des Backups zum Datenmanagement-Nirvana zu gelangen, versucht die zweite Firma, vom Ausgangspunkt der Verbesserung der Effizienz der Datenmigration dorthin zu gelangen.
Beide Ansätze zum Aufbau eines echten automatisierten Datenmanagements könnten Ihre Daten dorthin bringen, wo sie sicher und geschützt sind. Die Frage ist, ob die Industrie rechtzeitig zur Automatisierung kommen kann, um katastrophale Datenverluste zu vermeiden.
Folgen Sie SearchStorage.de auch auf Twitter, Google+, Xing und Facebook!