Vor- und Nachteile der Desktop-Virtualisierung

Lesezeit
3 Minuten
Bis jetzt gelesen

Vor- und Nachteile der Desktop-Virtualisierung

30.04.2014 - 09:47
Veröffentlicht in:
Die Ära des klassischen Clients mit eigener Hardware und lokaler Software geht mit dem Aufkommen verschiedenster Formfaktoren im Bereich mobiler Rechner und der gleichzeitigen Etablierung verschiedener Virtualisierungstechnologien für Client und Anwendungen seinem Ende entgegen. Dieser Artikel zeigt auf, wohin sich das Client-Management bewegt.
Lokale vs. gehostete Systeme
Bei der Desktop-Bereitstellung ist es üblich, für Technologievergleiche eine Trennung in lokale und gehostete Systeme vorzunehmen. Die lokalen Technologien werden auf einem permanent verbundenen PC oder einem längerfristig offline arbeitenden Laptop unter Nutzung von CPU, RAM und Plattenplatz eben des lokalen Endgerätes ausgeführt. Anwender arbeiten unmittelbar mit Bildschirm, Maus und Tastatur an diesem Gerät.

Im Unterschied dazu werden gehostete Systeme irgendwo – auch in der Cloud – betrieben, Anwender nutzen ihr Endgerät nur als Terminal und greifen über ein Remoting-Protokoll auf die entfernten Systeme zu. Gehostete Systeme lassen sich grob unterschieden in Umgebungen, in denen eine gehostete Betriebssystemumgebung jeweils nur einem Anwender gleichzeitig zur Verfügung steht (VDI, Virtual Desktop Infrastruktur) und in Umgebungen, in denen mehrere Anwender gleichzeitig, aber in getrennten Sitzungen innerhalb ein und derselben Betriebssystemumgebung arbeiten (SBC; Terminal Server oder RDSH).

Die Entscheidung für eine Desktop-Klasse hängt wie üblich von mehreren Faktoren ab. Sollen Applikationen komplett offline genutzt werden oder reichen Performance oder Funktionsumfang eines Remoting-Protokolls für bestimmte Anwendungsfälle nicht aus, dürfte die Entscheidung für lokale Desktops unumstößlich sein, denn: kein Netz, kein Hosted Desktop.

Die Entwickler der Remoting-Protokolle (Präsentations-Virtualisierung) investieren derweil nicht unerheblich in die Verbesserung der Performance (Bandbreite, Latenz-Abhängigkeit) und in die Erweiterung der Protokolle um weitere Funktionen – Grafik-Umleitung auf Endgeräte, VoIP- und Videokonferenz-Support sind nur einige Beispiele. Es lohnt sich also, die Entscheidung gegen Hosted Desktops regelmäßig zu überprüfen. Hosted Desktop-Umgebungen erleichtern es, eine Vielzahl unterschiedlicher Endgeräte einzusetzen, Stichwort "Bring your own Device" (BYOD). Solange es für das Endgerät den richtigen Remoting Protokoll-Treiber gibt, können auch ressourcenintensive Anwendungen genutzt werden.

Thin Clients sind nicht immer günstig
Thin Clients (TC) sowie Zero Clients sind eine logische Ausprägung der Idee eines schlanken Endgerätes. Beim Vergleich zwischen lokalem PC und Thin Client sollten Sie aber mit sehr spitzem Stift rechnen. Es ist zwar richtig, dass Thin Clients sehr wenig Strom verbrauchen und die Administrationskosten des Endgerätes aufgrund der hohen Stabilität relativ gering sind, auch sind Thin Clients oft für einen geringen Einstiegspreis zu haben.

Andererseits sind moderne Büro-PCs auch keine ultimativen Stromfresser mehr, und wenn Sie einen leichten PC etwa mit Atom-CPU einsetzen, können Sie den Stromverbrauch weiter senken. Softwaremanagement-Systeme haben sich in den letzten Jahren deutlich verbessert, sodass sich auch ein leichter PC relativ einfach und kostengünstig administrieren lässt. Und zwar mit Ihrem üblichen Softwareverteilungs-Tool, und nicht mit einer proprietären Lösung des TC-Anbieters.

Der Preis, zu dem Sie einfache TCs bekommen ist überschaubar, die Hardware dafür dann aber schwach. Doch wozu brauchen wir eigentlich Client-Performance? Wenn Ihnen bei den Remote-Protokollen Stichworte wie Redirection, Offloading oder Client-Side Caching auffallen, bewegen Sie sich im Bereich der Client-Performance. Zu oft werden Thin Client-Kaufentscheidungen am Preis fest gemacht, ohne etwas anspruchsvollere oder multimediale Anwender zu berücksichtigen. Und Inhalte wie etwa auf Youtube können durchaus geschäftsrelevant sein.

Vergessen Sie auch nicht, dass Rechenleistung für Applikationen irgendwo bereit gestellt werden muss – sind die Endgeräte zu schlank, muss im Rechenzentrum aufgerüstet werden. Dort ist die Packungsdichte höher und ein Server kostet für 100 User weniger als 100 Einzelplatz-PCs. Doch fallen Zusatzkosten für die Virtualisierung, Storage, Klimatisierung und weitere Posten an. Gerne wird zudem vergessen, dass die Remoting-Software nicht nur Lizenz- sondern auch administrative Kosten mit sich bringt. Einen kleinen Stolperstein hat sich dann noch Microsoft ausgedacht: Sollen Anwender auf gehostete persönliche Windows-Desktops  zugreifen, muss eine Virtual Desktop Access (VDA)-Lizenz des Endgerätes vorhanden sein. Windows-PCs mit gültiger Software Assurance besitzen diese VDA-Lizenz bereits. Für andere Geräte wie Thin Clients, Mac OS-Geräte und Windows-Rechner ohne SA muss diese VDA-Lizenz auf Jahresbasis gemietet werden.

Glücklicherweise gibt es weitere Vorteile eines Hosting-Ansatzes: Die Verarbeitung der Daten findet innerhalb des Rechenzentrums statt, was eine höhere Performance, Backup-Möglichkeit und Absicherung der Daten vor Verlust erlaubt. Remoting-Protokolle können auch über schmale Bandbreiten recht gut genutzt werden, ohne dass GByte von Daten bei Client-Server-Applikationen auf das Endgerät zu übertragen sind.

Sie sehen: Die Entscheidung, ob und welche Anwender mit lokalen oder gehosteten Desktops zu versorgen sind, ist nicht ganz einfach und ist nicht selten auch emotional motiviert. Gerade die Kalkulation von Hosted Desktop-Kosten ist so komplex, dass schnell etwas vergessen oder überbewertet wird.

VDI nur begrenzt sinnvoll
Innerhalb des Hosted Desktop-Ansatzes müssen Sie sich schon wieder entscheiden: Persönliche VDI-Desktops unter Windows oder gemeinsam genutzte Desktops auf Windows Server-Betriebssystemen (SBC, RDSH, Terminalserver)? Personal Desktops sind eigentlich nur in Szenarien sinnvoll, bei denen die zu nutzenden Applikationen wirklich nicht auf einem Multiuser-Server-Betriebssystem laufen (auch nicht mit Hilfe der Applikationsvirtualisierung), bei denen Anwender die Möglichkeit haben sollen, mit Admin-Berechtigungen zu arbeiten oder ihre eigene VM neu zu starten oder auf einen Snapshot zurückzusetzten. Viele Einsatzfälle bleiben dann nicht mehr übrig.

Im nächsten Schritt müssten Sie die VDI-Umgebung noch in Pooled (non-persistent) und Dedicated (persistent) aufteilen:
-    Pooled VDIs werden typischerweise nach dem Abmelden des Benutzers wieder auf einen Ausgangszustand zurück gesetzt, da-nach kann sich irgendein neuer Benutzer an der sauberen VM anmelden.
-    Dedicated VDIs sind einem Benutzer fest zugewiesen und werden nach der Abmeldung oft nicht zurückgesetzt, sodass Änderungen an der VM auch am nächsten Tag noch verfügbar sind.

Die Unterschiede von Pooled VDI versus SBC-Umgebung sind dabei aus Anwendersicht so gering, dass Sie sich schon sehr genau fragen müssen, ob und in welchem Umfang Sie Pooled VDIs wirklich benötigen – oder ob Sie die Anwender nicht besser und kostengünstiger mit einer SBC-Umgebung versorgen. Für die einzelnen technologischen Ebenen gibt es – je nach Desktop-Modell – teils unterschiedliche Anbieter, oder von bestimmten Anbietern unterschiedliche Softwareprodukte.



(Falko Gräfe/jp)

Ähnliche Beiträge