Virtualisierungsprojekte planen (3)

Lesezeit
2 Minuten
Bis jetzt gelesen

Virtualisierungsprojekte planen (3)

15.02.2021 - 00:00
Veröffentlicht in:
Es sollte gelebte Praxis sein, ein Virtualisierungsprojekt immer mit einer Planungsphase zu beginnen. Dabei werden die Anforderungen gesammelt und nach möglichen Lösungen Ausschau gehalten. Wir zeigen, welche Daten und Anforderungen in Sachen Hypervisor, VMs, Hardware und Backup notwendig dafür sind. Hier spielen technische Gegebenheiten ebenso eine Rolle wie organisatorische. Im dritten Teil erklären wir, warum ein wirkungsvolles Backupkonzept auch bei Virtualisierung so wichtig ist.
Kein Backup – kein Mitleid
Schauen Sie sich vor der technischen Umsetzung an, welche Backuplösungen am Markt verfügbar sind und ob diese die Anforderungen Ihrer Infrastruktur erfüllen. Dank Virtualisierung und einem guten Backupwerkzeug können Sie defekte VMs mittlerweile innerhalb von wenigen Minuten wieder online bringen, unabhängig von der Größe des Speicherplatzes, den die VM belegt.

Weitere Funktion von guten Programmen ist die einfache Wiederherstellung von Elementen innerhalb des Servers, etwa eine einzelne Datei, ein Ordner aus einem Exchange-Postfach, eine Datenbank oder ein Active-Directory-Objekt. Je nach Lösung können Sie Ihre Backups auch zeitgesteuert auf einen zweiten Server oder ein zweites Backupsystem übertragen, was gegebenenfalls an einem anderen Standort oder sogar in einem anderen Land steht.

Achten Sie beim Kauf von Backupspeicher darauf, dass das System eine entsprechende Anbindung und Geschwindigkeit aufweist. Natürlich ist es günstig, ein NAS mit SATA-Festplatten als Backupspeicher zu nutzen. Und natürlich dauert eine Sicherung auch nur beim ersten Mal sehr lange, da ja danach das "Change Block Tracking" greift und die Deltas sehr schnell geschrieben werden können. Haben Sie allerdings einmal darüber nachgedacht, was es heißt, wenn Sie 2, 5 oder sogar noch mehr TByte an Daten wiederherstellen müssen? Eventuell sogar über ein GBit-Interface, das nur am NAS vorhanden ist?

Wenn alles gut läuft und Sie mit maximaler Bandbreite einen Restore fahren können, schaffen Sie etwas mehr als 10 TByte in 24 Stunden. Bei vielen Unternehmen liegen die Speicherplatzgrößen mittlerweile bei 10, 20 oder noch mehr TByte. Im Falle eines Restore würde es somit zwei, drei oder noch mehr Tage dauern, bis die Daten wiederhergestellt wurden. Solche Zeiten sind mittlerweile nur noch in absoluten Ausnahmen möglich, die meisten Firmen sind nach mehr als einem Tag ohne IT nicht mehr handlungsfähig. Achten Sie unbedingt auf performantes Backup-Storage mit ausreichend Performance, Bandbreite und Durchsatz.

Ein weiterer Fehler, den wir leider häufiger beobachten, ist die Nutzung einer Deduplizierungs-Appliance als primäres Backupziel. Solche Speichersysteme können die Daten, die auf ihnen gespeichert werden, nochmal sehr stark komprimieren und eben deduplizieren, sodass Sie enorm viel Speicherplatz sparen beziehungsweise sehr viele Backups ablegen und speichern können. Diese enorm gute Deduplizierung führt allerdings in vielen Fällen auch dazu, dass die Wiederherstellung der Daten enorm lange dauert. Restore-Geschwindigkeiten von 20 bis 50 MByte pro Sekunde sind hier keine Seltenheit.

Grundsätzlich spricht erst einmal nichts gegen die Nutzung einer solchen Appliance, Sie sollten diese aber nicht als primäres Speicherziel nutzen, sondern immer als sekundäres. Der primäre Speicher muss gar nicht so groß sein, wichtig ist, dass die Performance stimmt und Sie zeitnah ein Restore fahren können.

Fazit
Eine ausgiebige und durchdachte Planungsphase wird Ihnen dabei helfen, viele Probleme und Abhängigkeiten bereits im Vorfeld zu umgehen. Wenn möglich, sollten Sie die neue Installation ausgiebig auf Herz und Nieren testen und die gesammelten Daten und Werte dokumentieren. Eine gute Dokumentation der gesamten Installation sollte selbstverständlich sein, damit auch nach Monaten oder Jahren noch Klarheit darüber herrscht, warum diese Einstellungen und Optionen so gesetzt wurden.

Im ersten Teil des Workshops ging es darum, wie Sie zuerst einmal Ihre Anforderungen bestimmen und auf was Sie bei der passenden Hardware achten sollten. Im zweiten Teil skizzierten wir, wie Sie Cluster-Server sowie Einzelsysteme planen und den Hypervisor festlegen oder wechseln.




jp/ln/Jan Kappen

Ähnliche Beiträge

Azure mit lokalen Netzen verbinden (3)

Azure bietet vielfältige Möglichkeiten, um Ressourcen in der Cloud mit lokalen Netzwerken zu verbinden. Dazu gehören auch Sicherheitsmechanismen und Loadbalancer, die den Datenverkehr zwischen Cloud und lokalem Rechenzentrum nicht nur zur Verfügung stellen, sondern absichern und hochverfügbar konfigurieren. IT-Administrator zeigt die Wege auf, um die Cloudumgebung mit dem lokalen Netzwerk zu verbinden. Im dritten und letzten Teil der Workshopserie zeigen wir, wie Sie virtuelle Firewalls hochziehen.

Azure mit lokalen Netzen verbinden (2)

Azure bietet vielfältige Möglichkeiten, um Ressourcen in der Cloud mit lokalen Netzwerken zu verbinden. Dazu gehören auch Sicherheitsmechanismen und Loadbalancer, die den Datenverkehr zwischen Cloud und lokalem Rechenzentrum nicht nur zur Verfügung stellen, sondern absichern und hochverfügbar konfigurieren. IT-Administrator zeigt die Wege auf, um die Cloudumgebung mit dem lokalen Netzwerk zu verbinden. Im zweiten Teil binden wir den Connection Broker an und erklären, was es mit dem Cloud Witness auf sich hat.

Azure mit lokalen Netzen verbinden (1)

Azure bietet vielfältige Möglichkeiten, um Ressourcen in der Cloud mit lokalen Netzwerken zu verbinden. Dazu gehören auch Sicherheitsmechanismen und Loadbalancer, die den Datenverkehr zwischen Cloud und lokalem Rechenzentrum nicht nur zur Verfügung stellen, sondern absichern und hochverfügbar konfigurieren. IT-Administrator zeigt die Wege auf, um die Cloudumgebung mit dem lokalen Netzwerk zu verbinden. Im ersten Teil der Workshopserie schildern wir das Prinzip virtueller Netzwerke.