Hochverfügbarkeit für virtuelle Storage-Infrastrukturen

Lesezeit
3 Minuten
Bis jetzt gelesen

Hochverfügbarkeit für virtuelle Storage-Infrastrukturen

22.06.2011 - 00:00
Veröffentlicht in:

Storage-Virtualisierungssoftware macht den Einsatz von Standardhardware als zentralen Shared Storage für virtuelle Maschinen und die Virtual Desktop Infrastructure (VDI) möglich.  Herkömmliche Windows-Server mit SAS- oder SATA-Platten können damit ausfallsicher ausgelegt und daneben sogar als Hochverfügbarkeitslösung für Shared File Cluster für CIFS- und NFS-Hosts genutzt werden. In unserem Online-Beitrag zeigen wir Ihnen die hierfür nötigen Grundlagen auf.

Virtualisierung für Server und Desktops verlangt leistungsstarken, ausfallsicheren, zentralen Shared Storage. Dabei kommt proprietäre SAN-Hardware in der Regel mit eigenen Administrationstools und die damit einhergehenden Inkompatibilitäten erschweren die Integration vorhandener Systeme und spätere Erweiterungen. Softwarelösungen zur Speichervirtualisierung sind dagegen als zentraler Administrationslayer für unterschiedliche Speichergeräte, -klassen und -hersteller konzipiert. Da sie auf Standardhardware aufsetzen, können die Anschaffungskosten einer Speicherinfrastruktur für virtuelle Maschinen (VM) und VDI deutlich gesenkt werden.

Folgende Kernfunktionen sollte Speichervirtualisierung geräteunabhängig leisten:
- zentrales Management für die virtuelle Storage-Infrastruktur
- virtuelles Disk-Pooling, automatisiertes Provisioning einzelner vDisks
- Thin & Thick Provisioning
- Prozessautomation (Script gesteuerte Abläufe)
- synchrone Spiegelung (Hochverfügbarkeit)
- asynchrone und bi-direktionale Replikation, (Disaster Recovery)
- Snapshots (Datensicherung)
- Continuous Data Protection (CDP) für kontinuierliche Datensicherung
- Auto Tiering
- Protokollunabhängigkeit

Hochverfügbarkeitskonfiguration verlangt Redundanz
Ein redundantes Hardware-Setup ist nicht nur für virtuelle Server und Desktops unerlässlich, auch die Storage-Infrastruktur verlangt für Hochverfügbarkeit eine doppelte Hardware-Anordnung. Mit herkömmlicher SAN-Hardware kann dies teuer werden und sogar die Einsparungen durch die Konsolidierung übersteigen.

Eine Virtualisierungssoftware hingegen schafft Hardwareunabhängigkeit und erleichtert Speichererweiterungen, wobei sie keineswegs die Redundanzanforderung ersetzen soll. Dabei sind Lösungen, die nach dem n+1-Prinzip skalieren, beweglicher als geclusterte Knoten. Insgesamt wird durch die Disk-Virtualisierung der Einstieg in die Server- und Desktop-Virtualisierung erleichtert. Reine Software-Lösungen, die Systemumgebungen aller Größen adressieren, werden dazu in der Regel auf zwei oder mehr physischen x86-Maschinen mit Windows Server 2008 R2 installiert. Sie verwandeln diese in dedizierte Speichervirtualisierungsknoten, die den integrierten, direkt oder über Fabrics oder Direktoren angeschlossenen Netzwerkspeicher zunächst in einem Pool vereinen.

Als Server eignen sich dafür unterschiedlichste Rechnertypen je nach E/A-Anforderung und Herstellerpräferenzen. Zu den Hardwareanforderungen aktueller Lösungen gehören zwei Single Core oder eine Dual Core CPU sowie ausreichend RAM, der für das Caching genutzt wird und so die Performanz der Storage-Systeme erhöht. Die Anforderungen werden in den meisten Fällen ab etwa 16 GByte erfüllt, und sind damit immerhin bescheidener als bei der Hardware für die eigentlichen Hypervisoren.


Bild 1: In einer hochverfügbaren virtuellen Storage-Infrastruktur sollte auch eine asynchrone Replikation möglich sein

Da die IO-Anforderungen gerade in der VDI hoch sind, sollte bei der RAM-Ausrüstung der Server nicht gespart werden. Mindestens drei Dual Port-HBAs sollten für die Anbindung an das Speichernetz eingebaut sein, wobei Administratoren zwischen Fibre Channel- und/oder Ethernet/iSCSI-Karten entscheiden, um neben der Ressourcen- auch für Pfadredundanz zu sorgen. Dazu werden die Storage-Server einfach doppelt an je einen Switch, oder aber auch redundant direkt miteinander verbunden.

IT-Abteilungen können dafür auch Anwendungsserver einsetzen, die durch Konsolidierungen frei geworden sind. Meist werden dann zumindest ein Nachrüsten des Arbeitsspeichers sowie zusätzliche Speichernetzkarten notwendig. In kleineren Umgebungen kann die Software auch auf virtuellen Maschinen unter ESX, XenServer oder Hyper-V aufgesetzt werden. Dadurch wird zwar das RAM-Management flexibel handhabbar, jedoch werden die Storage-Knoten aus Sicherheits- und Performancegründen meist auf dedizierter Hardware genutzt um die Storage-Server nicht mit den Applikationen in Konkurrenz zu setzen.

Disk-Pooling und Provisionierung
Bereits vorhandene interne Laufwerke und direkt angebundene Arrays lassen sich hinter den Servern zusammen mit externen SAN-Arrays anschließen, um gemeinsam den physischen Speicherpool zu bilden. Die Virtualisierungssoftware, entsprechend auf dem Windows-System installiert und angebunden, sollte mit allen gängigen Festplatten-Subsystemen zusammenarbeiten, die von Windows-Servern unterstützt werden. Auch einfache Platten-Shelfs sollten sich ohne weiteres in die Server direkt einbauen lassen.

Dabei ist auch ein Mischbetrieb mit SAS, SATA, FC oder SSDs denkbar. Um Verfügbarkeit und einen optimalen Lastausgleich zu erzielen, ist es üblich, dass die Gesamtplattenkapazität gleichmäßig zwischen den Storage-Servern aufgeteilt wird. Der Systemadministrator sollte jederzeit entsprechend den Kapazitäts-, Verfügbarkeits- und Leistungsanforderungen für bestimmte Arbeitslasten virtuelle Festplatten aus den physischen Festplattenpools bereitstellen können.

Jede virtuelle Disk verfügt über eine unabhängige Caching-Logik und kann wahlweise auch zusätzlich mit einem asynchronen Spiegel versehen sein. Der Speicherplatz wird dabei mittels Thin-Provisioning effizienter zugeteilt und jede virtuelle Disk belegt nur den Speicherplatz im physikalischen Festplattenpool, der auch wirklich zur Datenhaltung benötigt wird. Jede einzelne virtuelle Disk bedient sich immer aller bereitgestellten Festplattenressourcen im Festplattenpool. Dies führt zu einem Performance-Anstieg durch die Möglichkeit über alle verfügbaren Festplatten ein Striping zu erstellen.

Virtuelle Maschinen und physische Hosts erkennen die bereitgestellten virtuellen Disks als individuelle Festplattenressourcen. In geclusterten Systemen können dieselben virtuellen Festplatten mehreren Hosts zugewiesen sein, selbst wenn die Back-End-Festplatten nicht über mehrere Ports verfügen (und somit nicht gemeinsam nutzbar sind).




                                                Seite 1 von 2                     Nächste Seite>>






dr/Michael Baumann
 

Ähnliche Beiträge

Azure mit lokalen Netzen verbinden (3)

Azure bietet vielfältige Möglichkeiten, um Ressourcen in der Cloud mit lokalen Netzwerken zu verbinden. Dazu gehören auch Sicherheitsmechanismen und Loadbalancer, die den Datenverkehr zwischen Cloud und lokalem Rechenzentrum nicht nur zur Verfügung stellen, sondern absichern und hochverfügbar konfigurieren. IT-Administrator zeigt die Wege auf, um die Cloudumgebung mit dem lokalen Netzwerk zu verbinden. Im dritten und letzten Teil der Workshopserie zeigen wir, wie Sie virtuelle Firewalls hochziehen.

Azure mit lokalen Netzen verbinden (2)

Azure bietet vielfältige Möglichkeiten, um Ressourcen in der Cloud mit lokalen Netzwerken zu verbinden. Dazu gehören auch Sicherheitsmechanismen und Loadbalancer, die den Datenverkehr zwischen Cloud und lokalem Rechenzentrum nicht nur zur Verfügung stellen, sondern absichern und hochverfügbar konfigurieren. IT-Administrator zeigt die Wege auf, um die Cloudumgebung mit dem lokalen Netzwerk zu verbinden. Im zweiten Teil binden wir den Connection Broker an und erklären, was es mit dem Cloud Witness auf sich hat.

Azure mit lokalen Netzen verbinden (1)

Azure bietet vielfältige Möglichkeiten, um Ressourcen in der Cloud mit lokalen Netzwerken zu verbinden. Dazu gehören auch Sicherheitsmechanismen und Loadbalancer, die den Datenverkehr zwischen Cloud und lokalem Rechenzentrum nicht nur zur Verfügung stellen, sondern absichern und hochverfügbar konfigurieren. IT-Administrator zeigt die Wege auf, um die Cloudumgebung mit dem lokalen Netzwerk zu verbinden. Im ersten Teil der Workshopserie schildern wir das Prinzip virtueller Netzwerke.