ktsdesign - Fotolia
IT-Asset-Management setzt hohe Datenqualität voraus
Unzuverlässig und inkonsistent – so lassen sich Firmendaten beschreiben. Die Daten müssen daher für IT-Projekte, die eine hohe Datenqualität voraussetzen, aufbereitet werden.
Warum es in so vielen Fällen an Datenqualität und -konsistenz mangelt ist kein Geheimnis. IT-Asset-Daten stammen aus verschiedenen Quellen, von Discovery-Tools über Beschaffungslösungen bis hin zu Bereitstellungssystemen. Jedes Tool zeigt Anbieter und Produkte auf unterschiedliche Weise.
Adobe Creative Suite und Adobe CS mögen das gleiche Produkt sein, doch dank vielfältiger Namensvariation ist es für Discovery Tools schwer, die Anwendungen klar zu identifizieren und zusammenzuführen.
In Unternehmen finden sich für jede Anwendung durchschnittlich zehn Duplikate, die sich lediglich in der unterschiedlichen Bezeichnung des Herstellernamens unterscheiden. Bei Softwareproduktnamen ist das Verhältnis sogar 1:20. Diese mangelnde Standardisierung macht eine durchgehende Datenkonsistenz zu einem Ausnahmefall.
IT-Projekte brauchen Daten
Soll die Configuration Management Database (CMDB) ihrer Rolle als zentrales Aufzeichnungssystem gerecht werden, müssen solche Konflikte gelöst und Duplikate gefiltert werden. Angesichts Millionen von Datenzeilen, die sich über unterschiedlichste Bestands- und Asset-Management-Tools verteilten, scheint diese Aufgabe nahezu unmöglich.
Tatsächlich scheitern laut Gartner rund 40 Prozent der Business-Initiativen aufgrund unzuverlässiger Daten. Die folgenden IT-Projekte zeigen, wie wichtig saubere und konsistente IT-Daten und der Einblick in die gesamte IT-Landschaft eines Unternehmens für die erfolgreiche Umsetzung sind.
1. Daten für Audits
Saubere IT-Asset-Daten können sich bei Audits durch den Softwareanbieter als Lebensretter erweisen. Dabei können bei der Analyse bestimmte Dateien getrost ignoriert werden, darunter Dokumente aus der Wissensdatenbank, Patches, .dlls- oder .exe-Formate oder -Dateien, die zu einem größeren Paket gehören.
Was nicht unter den Tisch fallen darf, sind wichtige Informationen wie End-of-Life- oder End-of-Support-Daten, Lizenzierungs-/Paketierungsoptionen, aktuelle Version, Schwachstellen und Kompatibilität mit neuen Versionen von Windows. Diese externen Datenpunkte – Marktdaten also – sind für zahlreiche tägliche Prozesse unerlässlich. Fehlen hier automatisierte Prozesse, kann die Vorbereitung viel Zeit und Mühe kosten.
2. Serviceausfälle verhindern
Die Ursachen für einen Serviceausfall aufzuspüren, ist immer mit viel Aufwand verbunden. In einer idealen Welt sollte ein Team in der Lage sein, nach der Behebung eines Ausfalls die Ursache zu analysieren und andere Bedrohungen in ähnlichen Konfigurationen im gesamten Unternehmen zu lokalisieren, um ähnliche Vorfälle proaktiv zu verhindern.
In der realen Welt ist es nicht so einfach, diese ähnlichen Konfigurationen überhaupt auszumachen, geschweige denn die darin enthaltenden Bedrohungen. Wurde ein Ausfall zum Beispiel durch eine End-of-Life-Software oder einen defekten Router verursacht, stellt sich anschließend die Frage, welche anderen Assets mit den gleichen Kriterien betroffen sind. Ohne eine maßstabsgetreue IT-Landkarte und detailliert Bestandsaufnahme, einschließlich aller Abhängigkeiten, befinden sich Unternehmen auf verlorenen Posten.
3. Windows-Migration
Der Großteil der IT Assets eines Unternehmens ist bereits unter Windows 10 verfügbar oder wird es bald sein. Doch existieren noch immer Anwendungen, die aus Kompatibilitätsgründen nicht aktualisiert wurden. Schlimmer noch, diese Abhängigkeiten werden nicht immer abgebildet. Oft lässt sich nur über Umwege feststellen, welche Anwendungen sicher verschoben werden können. Die häufigen Betriebssystem-Updates werden diese Problematik auch in den nächsten Jahren nicht lösen.
4. Rationalisierung der Anwendungen
Es ist alles andere als ungewöhnlich, dass in Unternehmen verschiedene Softwarelösungen für ein und dieselbe Aufgabe implementiert sind: fünf PDF-Reader, vier Enterprise Architecture Tools, sieben Applikationsserver und Geschäftsdatenbanken.
Wer hier sinnvolle Rationalisierungsmaßnahmen ergreifen will, muss in der Lage sein, die unternehmenseigene Software nach Kategorien, Versionen, Obsoleszenz, Gefährdung durch Schwachstellen, Kompatibilität mit Virtualisierungstechnologien oder Betriebssystemen wie Windows 10 zu vergleichen.
5. ServiceNow-Implementierung
ServiceNow greift auf mehrere Informationsquellen zu. Eine typische Anwendung sammelt Asset-Daten aus mindestens drei Quellen, wobei die Systeme nach verschiedenen Attributen suchen, unterschiedliche Taxonomien anlegen und Daten auf unterschiedliche Art verarbeiten.
Nicht alle IT-Datenquellen verfügen über alle Aspekte eines IT-Assets. Und keine einzige Quelle kann als Single Source of Truth betrachtet werden. Im Umkehrschluss heißt das: Beschränkt sich ein Unternehmen auf die von ServiceNow unterstützten Quellen, kann es auch die IT-Service-Managementlösung nicht voll und ganz ausschöpfen.
6. Übergang in die Cloud
Bevor Anwendungen in die Cloud verschoben werden, ist es wichtig, ihre Abhängigkeiten, Versionen, Nutzungsdauer und Kompatibilität mit Virtualisierungstechnologien zu verstehen. Daten sind dynamisch. Entscheidungen im Rahmen des Cloud-Projekts müssen daher Einschränkungen und Kompatibilitäten von Anwendungen berücksichtigen, um gegebenenfalls Architektur- oder Konfigurationsänderungen vorzunehmen.
„Selbst die beste Managementlösung kann Unternehmen nur soweit unterstützen, wie die zugrunde liegenden Daten es erlauben.“
Thomas Reiber, Flexera
Automatisieren im IT-Haushalt
Die Beispiele zeigen, wie elementar die Datenqualität für das IT-Asset- und IT-Service-Management ist. Selbst die beste Managementlösung kann Unternehmen nur soweit unterstützen, wie die zugrunde liegenden Daten es erlauben. Datenpflege und das Recherchieren und Einbinden von externen Marktdaten ist jedoch einfacher gesagt als getan. Unternehmen sind daher gut beraten, auf automatisierte Lösungen zurückzugreifen, die zusätzlich über ein umfangreiches Repository an IT-Asset-Daten für Software und Hardware verfügen. Grundsätzlich empfehlen sich folgende Schritte:
-
Standardisieren Sie die Sprache in der gesamten IT mit Data Repositories, die auf Namen, Taxonomie und Nomenklatur in der gesamten IT verweisen. So können sie alle nötigen Basisinformationen zur Verfügung stellen, die für schnellere und bessere Entscheidungen benötigen werden.
-
Konsolidieren Sie Daten systemübergreifend mit integrierten Extraktoren, um Daten über alle Quellen hinweg zu sammeln, einschließlich HP, ServiceNow, BMC, Microsoft und IBM. Eine automatisierte Lösung filtert, dekomprimiert und normalisiert Daten, um die Identität der Asset-Werte zu ermitteln.
-
Reichern Sie CI-Daten mit fehlenden Metadaten und Marktinformationen an. Dazu zählen End-of-Life-Daten, Support-Typ, Upgrade- und Downgrade-Pfade, Versions- und Lizenzinformationen sowie Betriebssystemkompatibilität. Diese Informationen sind für all jene kriegsentscheidend, die über die technologische Infrastruktur eines Unternehmens entscheiden – vom Sicherheitsexperten, Unternehmensarchitekten, Software-Asset-Manager, Vendor-Management, Governance- und Risk-Teams bis zu CFO und CIO.
Über den Autor:
In seiner Funktion als Regional Vice President bei Flexera verantwortet Thomas Reiber die Bereiche Softwarelizenzoptimierung und Data Platform für Deutschland, Österreich und die Schweiz. Mit seiner langjährigen Erfahrung in der Softwarebranche sowie seinen umfangreichen Kenntnissen zu Schlüsselthemen wie Infrastruktur, BigData, eCommerce, PLM und Applikationsbasistechnik unterstützt er Kunden in DACH in unterschiedlichsten Branchen. Vor seinem Wechsel zu Flexera war er unter anderem als Vertriebsmanager bei BMC und als VP EMEA bei Endeca Oracle tätig.