ra2 studio - stock.adobe.com
Drei Gründe für das Fehlschlagen von VDI-Implementierungen
Virtuelle Desktops sind eine einfache und erprobte Methode für Home-Office-Bereitstellungen. Lesen Sie hier, wie sich während der Planung typische Probleme vermeiden lassen.
Die wenigsten IT-Technologien sind so leicht zu implementieren und zu pflegen, wie ihre Anbieter das gerne weismachen – und VDI (virtuelle Desktop-Infrastruktur) ist da leider keine Ausnahme.
Die erwarteten Kosteneinsparungen und geringerer Verwaltungsaufwand treten oft nicht ein. In vielen Fällen stellen Unternehmen fest, dass sie die Kosten und Komplexität unterschätzt haben, oder dass die Performance zu wünschen übrig lässt.
In der Folge schrauben sie ihre VDI-Pläne zurück, oder geben sie komplett auf. In diesem Artikel geben wir einen realistischeren Blick auf virtuelle Desktops, die Probleme, die sie IT-Abteilungen bereiten können und wie man diesen begegnet.
Unerwartete Komplexität
Viele Unternehmen schaffen eine VDI an, weil sie sich davon eine einfachere Desktop-Verwaltung erhoffen. Statt sich mit mehreren unabhängigen physischen Desktops befassen zu müssen, können Administratoren relativ wenige Desktop Images zentral verwalten, so dass sie Aufgaben wie Software-Updates oder das Ausrollen von Sicherheits-Patches einfacher durchführen können.
Die VDI-Verwaltung umfasst jedoch viel mehr als nur die Pflege von Desktop Images. Administratoren müssen sich im Rechenzentrum um die Server, Hypervisoren, Speichersysteme, Netzwerke, Software und mehr kümmern. Außerdem sind sie immer noch für die physischen Infrastruktur bei den Mitarbeitern, also das Management der Thin Clients und mobilen Geräte verantwortlich.
VDI-Administratoren müssen über breit gefächerte Fähigkeiten verfügen, um die verschiedenen Teile am Laufen zu halten und eine hohe Leistung und Zuverlässigkeit zu gewährleisten. Sie müssen die Netzwerkinfrastruktur ihrer VDI, die Ports, Subnetze, Protokolle und VLANs (Virtual Local Area Networks), sorgfältig ausbalancieren und kontrollieren.
Manche Administratoren setzen auf Application Layering, um die Anzahl der Basis-Images zu reduzieren, laden sich dabei aber gleichzeitig ein System mit viel höherer Komplexität und somit neue Probleme auf. Darüber hinaus erfordert VDI fehlertolerante Systeme, um Single Points of Failure (SPoFs) in der Server-, Speicher- und Netzwerkinfrastruktur zu vermeiden.
Administratoren müssen sich zusätzlich häufig mit Problemen bei der Virtualisierung von Software auseinandersetzen. Die großen Player wie Microsoft Office haben ihre Anwendungen auf den Einsatz in VDIs vorbereitet; Legacy- und Spezialanwendungen müssen jedoch oft manuell angepasst werden, um auf einem virtuellen Desktop zu laufen.
Auch die Sicherheit erfordert besondere Aufmerksamkeit. Obwohl VDI die zentrale Verwaltung und den Schutz von Daten erleichtern kann, ist eines der Verkaufsargumente von VDI, dass es den Benutzern den Fernzugriff auf ihre Desktops von verschiedenen Standorten und Geräten aus ermöglicht.
Diese größere Angriffsfläche macht es jedoch schwieriger, das Netzwerk und die darunter liegenden Systeme zu schützen. Das Verwenden von Antivirussoftware in VDIs ist eine Herausforderung und muss sorgsam koordiniert werden, da Scans auf zu vielen Desktops gleichzeitig das System überlasten können.
Erschwerend kommt hinzu, dass bei VDI oft mehr auf dem Spiel steht, weil ein Fehler Hunderte oder Tausende virtueller Desktops auf einen Schlag zum Absturz bringen kann. Daher ist es für VDI-Administratoren umso wichtiger, einen soliden Business-Continuity-Plan zu implementieren, um kritische Infrastrukturen zu schützen und eine hohe Verfügbarkeit zu erreichen.
Schlechte Leistung
Die größte Gefahr für VDI-Projekte sind unzufriedene Benutzer. Für Anwender und Administratoren ist eine schlechte VDI-Performance ein großes Problem. VDI ist zwar schon lange nicht mehr so anfällig für Performance-Probleme, wie sie es einmal war, es gibt aber immer noch bekannte Schwierigkeiten, deren Lösung mit erhöhtem Kostenaufwand verbunden ist.
Zu den üblichen Verdächtigen gehört dabei die Speicherinfrastruktur. Um an der VDI zu sparen, versuchen IT-Teams oft, möglichst viele virtuelle Desktops auf möglichst wenig Speicherplatz zu laden, was zu Ein-/Ausgabe-Latenzzeiten (Input/Output, I/O) und -Konflikten führt.
Der typische VDI-Speicher muss in der Lage sein, morgendliche Boot Storms, gleichzeitige Antiviren-Scans, Software-Updates, System-Backups und andere unvorhergesehene Lastspitzen zu bewältigen.
Höhere Speicherdichten benötigen zudem oft mehr Aufwand bei der Stromversorgung und Kühlung und können das Netzwerk belasten, das den Eingangs- und Ausgangsverkehr des Speichers filtert. Wenn ein Unternehmen seine Rechenzentren zu einigen wenigen regionalen Standorten konsolidiert, ist der Effekt bei der Latenz für die Benutzer je nach Entfernung noch stärker.
VDI kann auch die Netzwerkressourcen belasten, da alle Desktop-Daten zwischen dem Rechenzentrum und dem Client hin- und herwandern. Erschwerend kommt hinzu, dass viele Organisationen für ihre VDI die Netzwerke nicht erneuern, sondern sie in ihrem bisherigen Zustand weiterverwenden.
Selbst wenn Administratoren sie ausbauen, wurden diese Netzwerke immer noch nicht grundlegend für den Einsatz von VDI konzipiert. Auch andere Hardwarekomponenten können zu einer schlechten Leistung führen, zum Beispiel wenn Server nicht auf die Verarbeitungsanforderungen der VDI ausgelegt sind.
Auch die Netzwerklatenz kann die Benutzerfreundlichkeit erheblich beeinträchtigen. Sie kann Anwendungen mit großen Dateien, zum Beispiel Multimediaanwendungen, nahezu unbenutzbar machen. Um diese Probleme zu beheben, setzen Anbieter komplexe Workarounds, wie die Umgehung des Remote-Desktop-Protokolls (RDP) ein, wenn ein Video-Stream zum Client geleitet wird. Leider bedeutet dies, dass der Videoplayer auf dem Client laufen muss, was die Vorteile der Desktop-Virtualisierung untergräbt.
Unvorhergesehene Kosten
Die Ressourcen, die IT-Abteilungen für ihre VDI benötigen, sind nicht günstig, wenn sie dabei ein angemessenes Leistungsniveau aufrechterhalten und die Produktivität der Mitarbeiter durch redundante Systeme fördern sollen. Bedenken Sie, dass alle Desktop-Daten über die Netzwerke laufen und Speicherplatz in zentralen Backend-Servern benötigen. Bei der Anschaffung einer VDI sollten Unternehmen mit einer ausreichend dimensionierten Hardware, redundanten Komponenten und regelmäßigen Ausgaben für das Erneuern von Komponenten rechnen.
Entscheidungsträger lassen sich häufig von den günstigen Hardwarekosten bei der Anschaffung von Thin Clients überzeugen. Doch zusätzliche Ausgaben für neue Hardware und Ressourcen bedeuten häufig, dass die Kosten erst einmal höher sind als zuvor.
Infolgedessen müssen VDI-Administratoren ständig bestrebt sein, Kosten und Leistung in ein ausgewogenes Verhältnis zu bringen. Eine hyperkonvergente Infrastruktur kann in einigen Fällen die Kosten für VDI durch eine effizientere Nutzung der Ressourcen senken.
Auch bei der Lizenzierung von Software müssen Organisationen vorsichtig vorgehen. Die Lizenzierung von Windows und virtualisierten Anwendungen kann verwirrend und komplex sein. Bei Fehlern kommen auf die IT-Abteilung womöglich Audits und Vertragsstrafen zu.
Bevor ein Unternehmen die Investition tätigt, sollte es sorgfältig die optimalen Anwendungsfälle für die Desktop-Virtualisierung bewerten. Eine Organisation mit Remote-Wissensarbeitern wäre zum Beispiel gut für VDI geeignet. Bei einer Organisation, die in hohem Maße mobile Mitarbeiter beschäftigt, würden dagegen die Kosten für VDI die Vorteile überwiegen. Ein Proof-of-Concept (PoC) kann Organisationen dabei helfen festzustellen, ob VDI die richtige Wahl ist.
Organisationen müssen nicht zuletzt die Kosten für das IT-Personal berücksichtigen, das sie für das Implementieren von VDI, die Wartung der Soft- und Hardware und zum Unterstützen der Benutzer benötigen. Um die Infrastruktur zum Laufen zu bringen, muss ein IT-Team unter Umständen spezielle Berater hinzuziehen oder kostenpflichtige Hilfe vom VDI-Anbieter heranziehen.