Wie Digitalisierung und Virtualisierung zusammenhängen
Das Konzept von virtuellen Desktop-Infrastrukturen ist nicht neu, wurde bisher aber häufig falsch angegangen. Entscheidend ist eine einheitliche Managementplattform.
Deutsche Unternehmen gelten im internationalen Vergleich häufig als gut strukturiert und konservativ, wenn es um die Adaption von neuen Technologien geht. Während in den USA Organisationen risikobereiter bei der Implementierung von Innovationen sind, wägen hierzulande Entscheider potenzielle Anpassungen genau ab.
Stehen Pläne für eine Veränderung allerdings erst einmal, ist die Zustimmung hoch. Ein solches Vorgehen garantiert Investmentsicherheit, es droht aber auch die Gefahr, in eine Art dauerhaften Reaktionszwang zu rutschen und bei der digitalen Transformation hinterherzuhinken. Denn spätere Anpassungen können zu Wettbewerbsnachteilen führen.
Ein gutes Beispiel ist die Verwaltung von Büroarbeitsplätzen. Spätestens mit Microsoft Office 365 ergeben sich hier neue Möglichkeiten: Der moderne Arbeitsplatz ist mobil, Cloud-basiert und die Anzahl skalierbar. Unternehmen können Effizienz und Mitarbeiterzufriedenheit steigern, müssen aber gleichzeitig auch den Aufwand für Verwaltung und Absicherung der Endpunkte bedenken. Genau wie beim Hausbau ist guter Rat teuer – wenn das Fundament nur kleine Fehler enthält, dann kann später das gesamte Haus Risse bekommen.
Sichere Basis schaffen
Die größte Herausforderung ist Zeit – die ist nämlich knapp. Organisationen haben nicht viel Spielraum. Im Beispiel von Office 365 hat Microsoft die Umstellung quasi vorgeschrieben. Alle Nutzer müssen die Vorteile des neuen Produktes optimal für sich ausloten – oder sie verlieren dauerhaft an Wettbewerbsfähigkeit.
In anderen Fällen gibt es vielleicht keinen formellen Zwang zur sofortigen Umstellung, trotzdem müssen Unternehmen ihre IT anpassen. Zum einen, um IT-Prozesse sicher und effizienter zu gestalten, aber auch, um den Anforderungen der Mitarbeiter gerecht zu werden. Bieten Unternehmen ihnen keine zeitgemäßen Arbeitsplätze, verlieren sie an Wettbewerbsfähigkeit. Zudem werden sie als Arbeitgeber unattraktiver, so dass Angestellte zu Konkurrenz abwandern können.
Die Debatte um den Arbeitsplatz der Zukunft gibt es dabei schon eine Weile. Hinzu kommt aktuell die Diskussion um New Work. Der Sozialphilosoph Frithjof Bergmann beschreibt dabei nichts weniger als das Ende der Arbeitswelt, wie man sie bisher kannte. Durch Veränderungen in Unternehmen, zum Beispiel durch Industrie 4.0, autonome Fahrzeuge und Entwicklungen im Bereich künstliche Intelligenz (KI), ändern Menschen ihre Anforderungen an ihren Arbeitsplatz. Zudem verstärkt sich der Wunsch nach einem selbstbestimmten Berufsleben.
Es ist unwahrscheinlich, dass sich auf Basis einer akademischen Theorie sämtliche Organisationen weltweit verändern werden, aber die Auswirkungen der Digitalisierung auf die individuelle Beschäftigung werden in Chefetagen häufig unterschätzt.
Genau deshalb kommt es in der Praxis immer wieder zu unnötigen Stolpersteinen: Unerwarteter Aufwand bei der Verwaltung von Endpunkten, Kompatibilitätsprobleme nach einem Versions-Update, Probleme bei der Cloud-Migration, Sicherheitsprobleme durch neue Arten von Schadsoftware, ungeplante Neuanschaffung von Hardware, schlechte Performance und keine Akzeptanz der Nutzer scheinen geradezu alltäglich – sind aber nicht mehr tragbar.
Je stärker Organisationen mit diesen Problemen zu kämpfen haben, desto weniger können sie die Agenda beim Thema Digitalisierung selbst bestimmen. Die Folge ist konstante Brandbekämpfung und schleppende Prozesse.
Außerdem steigt der Druck auf IT-Abteilungen. Dabei geht es in der smarten Welt vor allem um Geschwindigkeit. Die Fähigkeit neue Innovation schnell zu implementieren und ihre Vorteile optimal zu nutzen, sind für Unternehmen überlebenswichtig. Fällt man zu weit zurück oder verpasst wichtige Trends, ist es schwierig, weitere Entwicklungen richtig anzugehen.
Gerade bei grundlegenden Geschäftsprozessen ist daher die richtige IT-Infrastruktur essenziell. Firmen sollten Grundlagen schaffen, mit denen sie flexibel auf neue Entwicklungen reagieren können. Geschieht dies nicht, ist es wahrscheinlich, dass zu kurzfristig geplante Modernisierungsansätze nicht nachhaltig genutzt werden können oder ungeplante Folgekosten entstehen.
Die Lösung: die passende virtuelle Desktop-Infrastruktur (VDI)
Die Schlüsseltechnologie im Umgang mit diesen Herausforderungen ist die individuell passende Virtualisierung von Arbeitsplätzen durch den Aufbau einer virtuellen Desktop-Infrastruktur (VDI). Das Konzept von virtuellen Maschinen im eigenen Rechenzentrum oder in der Cloud ist sicherlich für einige Unternehmen nicht neu, wurde aber in der Vergangenheit falsch angegangen oder nicht aus dem richtigen Blickwinkel betrachtet.
Grundsätzlich geht es darum, keine kritischen Daten auf den Endpunkten zu speichern. Dabei darf es keinen Unterschied machen, ob man das Betriebssystem für Endpunkte On-Premises, in einer gesicherten Cloud-Umgebung oder beides gleichzeitig als Hybrid-Modell virtualisiert.
Sicheres Fundament bedeutet in jedem Fall eine einheitliche Managementplattform. Über diese sollten zudem unterschiedliche Virtualisierungsanbieter einsetzbar sein – so lassen sich Vendor Lock-ins vermeiden. Dies ist besonders wichtig, da neben etablierten Playern wie Citrix oder VMWare auch andere Internetgiganten wie Microsoft und Amazon vielversprechende eigene Lösungen auf die Beine gestellt haben.
Um sämtliche Datenströme und Arbeitsprozesse richtig abzusichern und zu verwalten, müssen alle Elemente von der eigenen Infrastruktur über die Virtualisierung bis hin zum Endgerät ineinandergreifen. Bei den Endpunkten eignen sich Thin Clients am besten für den professionellen Einsatz, da sie per se ein hohes Maß an Sicherheit bieten und gleichzeitig ressourcenschonend arbeiten.
Es sollte aber darauf geachtet werden, dass das genutzte Betriebssystem nicht nur optimal auf die Managementlösung zugeschnitten ist, sondern auch unterschiedliche Hardwaretypen unterstützt und flexibel skaliert werden kann. Dadurch ist es zudem möglich, alte Hardware weiterhin zu nutzen und in die modernisierte Infrastruktur zu integrieren.
„Eine passende virtuelle Desktop-Infrastruktur mit einer entsprechenden Architektur ist nicht nur flexibel, sondern spart dem Unternehmen bares Geld.“
Jörg Kurowski, IGEL
Die Wahl der richtigen Architektur des Betriebssystems wird häufig unterschätzt. Endpoint-Sicherheit und -Verwaltung sind in vielen Unternehmen ein Problem, weil auf Systeme gesetzt wird, die nicht ideal auf die individuellen Anforderungen zugeschnitten sind. Außerdem sind die Integrationen zwischen unterschiedlichen Anbietern häufig nicht ausreichend abgestimmt. Die Folge ist eine komplizierte Verwaltung von aufgeblähten Endpunkt-Systemen, ineffizientes Management über Softwareagenten, schlechte Performance, hoher Speicherbedarf und Sicherheitsrisiken.
Fazit
Virtualisierung ist ein Kernpfeiler der Digitalisierung. Allerdings haben viele IT-Entscheider hier schlechte Erfahrungen gemacht, weil sie auf die falsche Softwarearchitektur zurückgegriffen haben. Es ist also umso wichtiger, Partner zu haben, die sowohl in der Softwareentwicklung als auch in der Integration von Hardwarekomponenten versiert sind.
Trendthemen wie IoT, Blockchain oder künstliche Intelligenz kursieren immer wieder in Führungsetagen. Allerdings sollten IT-Entscheider genau deshalb das richtige Fundament für Innovation schaffen, bevor sie auf solche Bereiche eingehen. Dies fängt bei den grundlegenden IT-Prozessen an. Hier findet eine wichtige Weichenstellung statt, wobei jedoch häufig elementare Dinge übersehen werden, die später zu großen Probleme führen.
Eine passende virtuelle Desktop-Infrastruktur mit einer entsprechenden Architektur ist nicht nur flexibel, sondern spart dem Unternehmen bares Geld. Durch das richtige Softwareökosystem kann bestehende Hardware weiterverwendet und zudem die Nutzererfahrung verbessert werden.
Über den Autor:
Jörg Kurowski ist VP Sales Deutschland bei IGEL.