Joshua Resnick - Fotolia

Darum gehört Microsoft Windows ins Data Center

Da immer mehr Ressourcen aus der Cloud stammen, gilt es auch im Bereich Desktop-Computing auf diese Innovationen zurückzugreifen. Das fängt beim Betriebssystem an.

Die neue Version von Windows 10 erfordert bis zu 32 Gigabyte Speicherplatz. Microsoft zeigt damit, dass allein ein Versions-Update ausreicht, um noch funktionierende Hardware frühzeitig in den Ruhestand zu schicken. Für viele Endgeräte ist dies schlichtweg zu viel benötigter Festplattenspeicher, um noch sinnvoll arbeiten zu können.

Die Ankündigung ist nur ein Beispiel dafür, weshalb Unternehmen ihre Arbeitsplätze virtualisieren sollten, inklusive Anpassung ihrer Endpoint-Verwaltung. Für die Performance und die Sicherheit der Firmen-IT hat dies erhebliche Auswirkungen. So geben Organisationen – ohne es zu merken – Geld für neue Geräte aus und überlasten ihre Abteilungen, obwohl sie durch eine einfache Umstellung ihrer Infrastruktur nachhaltiger wirtschaften könnten.

Etwas überspitzt, aber doch nicht ganz unwahr, kann man folgende Aussage treffen: Die 1990er Jahre waren das goldene Zeitalter des PCs und viele IT-Abteilungen verwalten die Arbeitsplätze immer noch in ihrem Netzwerk. Das heißt, ein Nutzer hat ein Fat Client mit einem umfangreichen Betriebssystem. Wenn es ein Problem gibt, muss der Servicemitarbeiter ausrücken. Hätte Microsoft nicht Office 365 entwickelt, käme wohl noch eine umfangreiche Office Suite hinzu.

Diese Vorgehensweise ist allerdings nicht mehr zeitgemäß. Da die meisten Prozesse und eben auch Programme aus dem Arbeitsalltag bereits auf Cloud Computing ausgerichtet sind, ist es sinnvoll, sich auch beim Betriebssystem auf das Nötigste zu beschränken, anstatt Endpunkte mit unnützem Ballast anzubinden. So lässt sich die Verwaltung vereinfachen.

Wirklich kostspielig ist der Leistungsverlust der Geräte

Der offensichtlichste Kostenpunkt entsteht, wenn Geräte das Update nicht verkraften. Vielleicht kann man mit einem 64 Gigabyte verbautem eMMC-Speicher theoretisch noch arbeiten, allerdings sind die Freiheiten bei den Applikationen damit ziemlich eingeschränkt. Doch das ist nicht alles – es gibt weitere Punkte, die diesbezüglich beachtet werden sollten.

Reicht die Systemleistung der vorhandenen Geräte nicht mehr aus, kann das teuer werden. Die Ausfallzeiten werden länger. Zeiten für Download und Installation summieren sich, gerade in Großunternehmen mit vielen Geräten oder bei unzureichender Breitbandverfügbarkeit kann es viel Zeit kosten, bis Updates ausgerollt sind. Möglicherweise müssen diese dann noch direkt vor Ort installiert werden. Sogar, wenn keine Remote-Verbindung nötig ist, werden die eigenen Netzwerke durch die Datenpakete stärker belastet, die Leistungsfähigkeit wird unnötig geschwächt.

Je nach Heterogenität der Endgeräte und der genutzten Apps kommt es zu Implementierungsschwierigkeiten. Im Endeffekt bietet Windows viele nette Features, die auf einem Arbeitscomputer aber in der Regel nicht gebraucht werden. Wird allerdings ein bestimmter Treiber benötigt oder besteht ein spezifisches Problem, dauert es, bis Anfragen beim Anbieter beantwortet werden. Große Systeme mit vielen Entwicklern haben hier sehr umfangreiche und aufwendige Prozesse.

Sogar, wenn Windows auf dem PC problemlos läuft: Die ungenutzten Features verbrauchen nicht nur Ressourcen, sondern sind auch potenzielle Angriffsvektoren. Natürlich können diese deaktiviert werden, allerdings muss dies dann wieder durch die IT-Abteilungen erfolgen.

Häufig denken IT-Verantwortliche, dass das nicht zu ändernde und somit hinzunehmende Gegebenheiten sind. Es gibt jedoch bessere Möglichkeiten, um Geräte länger zu nutzen und besser abzusichern.

Anstatt auf dem Endgerät fest installiert, kann Windows bequem im Rechenzentrum oder in der Cloud virtualisiert werden. Microsoft bietet hierzu eine eigene Lösung an, um eine virtuelle Desktop-Infrastruktur (VDI) in fast jedem Unternehmen zu realisieren. Damit ist die Größe kein Problem mehr. Außerdem wird der Nutzerkomfort, die Remote-Verwaltung und das Patch-Management optimiert.

Jörg Kurwoski, IGEL Technology

„Ein Betriebssystem, das 32 Gigabyte Speicher verbraucht, kann nicht das Maß der Dinge im Bereich End User Computing sein.“

Jörg Kurwoski, IGEL Technology

Wichtigster Faktor ist ein schlankes Betriebssystem, das zwar alle nötigen Treiber und Technologieintegrationen mitbringt, aber sich für jede Art von Hardware eignet und besonders an den Bedürfnissen von Unternehmen orientiert. Es gibt Lösungen, die mit weniger als 1,5 Gigabyte Festplattenspeicher zurechtkommen. Jeder 64-Bit CPU mit über einem Gigahertz Taktfrequenz und zwei Gigabyte Arbeitsspeicher wird damit zum Windows-Arbeitsplatz.

Im Idealfall werden Treiber und Sicherheitsfeatures nicht nur direkt in die Firmware des OS eingebettet, sondern zusätzlich mit einer einheitlichen Verwaltungsplattform verzahnt. Dadurch kann eine beliebige Anzahl von Devices mit nur einer Konsole administriert werden. Integrationen sollten zudem modular aufgebaut sein, sodass weitere Hardware aus der Ferne installiert werden kann. Sei es der komplette Roll-out eines Arbeitsplatzes oder das Hinzufügen eines Peripheriegerätes, wie beispielsweise ein Drucker.

Fazit

Ein Betriebssystem, das 32 Gigabyte Speicher verbraucht, kann nicht das Maß der Dinge im Bereich End User Computing sein. Sicherlich gibt es einige Use Cases, bei denen es keine Alternative gibt, aber im Grunde gehört Windows ins Rechenzentrum. Auf dem Endpunkt hingegen sollte sich ein Betriebssystem an den Bedürfnissen eines Unternehmens orientieren: Sicherheit, Performance und Nutzerfreundlichkeit.

Da immer mehr Ressourcen aus der Cloud oder aus Data Centern kommen, gilt es auch im Bereich Desktop-Computing auf diese Innovation zurückzugreifen. Schlüsselelement ist die richtige Kombination aus Managementplattform und einem passenden Betriebssystem für die Endgeräte.

Über den Autor:
Jörg Kurwoski ist Vice President Sales Germany bei IGEL Technology.

Die Autoren sind für den Inhalt und die Richtigkeit ihrer Beiträge selbst verantwortlich. Die dargelegten Meinungen geben die Ansichten der Autoren wieder und entsprechen nicht unbedingt denen von ComputerWeekly.de.

Nächste Schritte

So kann man VDI-Umgebungen besser absichern.

VDI: Darauf kommt es bei Tools fürs Troubleshooting an.

GPU-Nutzung gewinnt bei VDI-Implementierungen an Bedeutung.

Erfahren Sie mehr über Desktop-Management