Fachartikel

Synchrone Spiegel gekonnt aufbohren

Synchronous Mirroring, also die Nutzung synchroner Spiegel, soll bei einem Ausfall der Hardware durch ein transparentes Failover zum zweiten Standort einem Datenverlust vorbeugen. In einem virtualisierten Rechenzentrum stoßen synchrone Spiegel jedoch an ihre Grenzen und ließen sich für Administratoren immer schwieriger verwalten. Der Fachartikel zeigt, wie sich die Zuverlässigkeit eines synchronen Spiegels durch Continuous Data Protection und Recovery Automation verbessern lässt.
Synchrone Spiegelung ergibt Sinn, zeigt sich jedoch ohne vereinheitlichende Werkzeuge oft als sehr komplex.
Synchronous Mirroring, auf Deutsch synchrone Spiegelung, kommt vor allem bei großen Unternehmen zum Schutz geschäftskritischer Daten und Anwendungen zum Einsatz. Mit Hilfe eines transparenten Failover zum zweiten Standort soll sich Datenverlust in der Theorie komplett vermeiden lassen (Zero RPO – Recovery Point Objective). Bei diesem Idealfall würde dann natürlich auch keine Zeit zur Wiederherstellung verlorener Dateien verbraucht (Zero RTO – Recovery Time Objective).

In einem virtualisierten Rechenzentrum mit logischen Fehlern erscheinen die Ziele Zero RPO und Zero RTO jedoch immer unerreichbarer. Mehr und mehr Daten bewegen sich im Cache des Hypervisors und innerhalb virtueller Anwendungen. Das durchschnittliche Wachstum von 10 bis 15 Prozent der Anzahl an VMs pro Jahr und die damit zusammenhängende exponentielle Zunahme der Abhängigkeiten zwischen den VMs erhöhen die Schwierigkeit einer konsistenten Wiederherstellung einer Anwendung. Selbst in einer hochverfügbaren Umgebung werden SLAs im Falle eines logischen Fehlers oft eher grob geschätzt.

Synchrone Spiegel mit Nachteilen
Der synchrone Spiegel ist heute die Standardtechnologie für ein hochverfügbares Rechenzentrum, hat aber auch Nachteile: Er ist teuer, aufwändig in der Verwaltung, schützt keine Daten "on the fly", hat keine komplexen Performance- und Skalierungsfunktionen und schützt nicht einmal vor logischen Fehlern. Da ein synchroner Spiegel Daten generell nur vor Hardwareausfällen schützt, muss die IT-Abteilung in zusätzliche Technologien investieren.
Gleichzeitig speichern Hypervisoren und Anwendungen mehr Daten in ihren Caches, wo sie sich durch synchrone Replikation nicht effektiv schützen lassen. Dies wiederum sabotiert das Ziel eines Zero RPO. Eine Vielzahl von Softwarelösungen, die hardwarezentrierte Speichersysteme mit wichtigen Funktionen wie Backups und Snapshots ausstatten, bieten effektiven Schutz vor logischen Fehlern und werden heute von nahezu allen Unternehmen eingesetzt. Diese Lösungen erhöhen jedoch die Komplexität und machen die Umgebung anfälliger für Fehler.

Die Installation, Koordination und Konfiguration von redundanten und diversen Systemen und Softwarelösungen wirkt sich negativ auf das Management der IT-Umgebung aus: Zum einen auf die Planung von Kapazität und Performance, zum anderen auf die konsistente Wiederherstellung virtualisierter Anwendungen. Sind viele verschiedene Hardware- und Softwarelösungen im Einsatz, ist auch mehr Erfahrung für die Wiederherstellung einer oder mehrerer beschädigter Anwendungen nötig.

Da die Datenmengen gleichzeitig exponentiell wachsen, sinkt das Zeitfenster für herkömmliche Backups und Wiederherstellungen rapide. Schreibintensive Anwendungen modifizieren darüber hinaus viele Blöcke auf dem Dateisystem und benötigen viel Speicherplatz für die Snapshots. Durchschnittlich sind so zirka 20 Prozent eines Speichersystems oder 10 bis 15 Prozent pro Datastore nur für Snapshots reserviert.

Performance-Killer Snapshots
Die inkrementelle Speicherung von Snapshot-Änderungen hat erheblichen Einfluss auf die Verwendung dieser Snapshots und mindert die Performance. Je mehr Snapshots für eine VM erstellt werden, desto mehr Aufwand ist für die Virtualisierungssoftware erforderlich, um den aktuellen Zustand der VM auf Basis des ursprünglichen VMDK und aller relevanten Snapshot-Festplatten zu rekonstruieren. Die Anzahl der aktiven Snapshots wirkt sich darüber hinaus negativ auf die Performanceaus aus und damit auf den RPO. In produktiven Umgebungen werden Snapshots für kritische Anwendungen höchstens einmal pro Stunde erstellt. Nicht nur wegen Speicher- und Performanceproblemen, sondern auch, um die produktiven VMs nicht zu beeinträchtigen und sie alle paar Minuten für einen applikationskonsistenten Snapshot anzuhalten. Daher dürfte der durchschnittliche RPO für die meisten VMs tatsächlich zwischen sechs und acht Stunden liegen.

Backups und Snapshots beeinflussen auch die konsistente Wiederherstellung, da Anwendungen, die von mehr als einer Datenbank abhängig sind, nur dann korrekt arbeiten können, wenn alle erforderlichen Datenbanken konsistent sind und sich auf denselben Wiederherstellungspunkt beziehen. Aufgrund der Speicherarchitektur lassen sich zusammengehörige Systeme nicht einfach zu einer Konsistenzgruppe einer Anwendung zusammenfassen. Einfach ausgedrückt: Eine Anwendung ist nur dann konsistent, wenn alle Datenbanken den gleichen Zeitstempel haben. Sind mehrere, logisch miteinander verknüpfte Datensätze auf verschiedenen Servern in unterschiedlichen Speicherbereichen abgelegt, so haben die Snapshots dieser Datensätze unterschiedliche Zeitstempel. Beim Zurücksetzen auf einen Snapshot werden die Datensätze dann nicht auf den gleichen Zeitpunkt zurückgesetzt. Daher ist die betreffende Anwendung manuell in einen konsistenten Zustand zu bringen, bevor sie wieder nutzbar ist. Dieser Prozess, einschließlich der erforderlichen Tests kann mehrere Stunden dauern.

    Seite 1: Synchrone Spiegel mit Nachteilen
    Seite 2: Komponenten und Systemvoraussetzungen von ZVR
    Seite 3: Installation von ZVR in vSphere-Umgebungen


Seite 1 von 3 Nächste Seite >>
7.02.2018/ln/Johan van den Boogaart, Regional Sales Manager DACH bei Zerto.

Nachrichten

Unter Strom [7.01.2020]

Socomec präsentiert seine ausfallsichere USV-Lösung MODULYS XL. Mit standardisierten Bausteinen lassen sich bei dem modular aufgebauten Notstromsystem verschiedenste Konfigurationen für eine unterbrechungsfreie Stromversorgung (USV) in Datenzentren herstellen. Die einzelnen Blöcke liefern jeweils 200 Kilowatt Leistung und sind bis zu 1200 Kilowatt skalierbar. [mehr]

Switch für datenintensive Netzwerke [16.12.2019]

LANCOM Systems baut mit dem GS-3528XP sein Switch-Portfolio weiter aus. Der Multi-Gigabit-Access-Switch unterstützt an zwölf seiner Ports 2,5-GBit-Ethernet und will so eine Basis für den Betrieb von Wi-Fi 6 Access-Points und anderen Netzwerkkomponenten mit hohen Performance-Anforderungen bilden. [mehr]

Tipps & Tools

Vorschau Januar 2020: LAN, WAN & SDN [16.12.2019]

Die Netzwerkinfrastruktur gehört wahrscheinlich nicht zu den heißesten Themen im IT-Bereich, nimmt jedoch einen enormen Stellenwert für Administratoren ein. Denn ohne stabile Grundlage kommt es schnell zu Engpässen im Datendurchsatz und Ausfällen von Applikationen. IT-Administrator startet das neue Jahr deshalb mit dem Schwerpunkt "LAN, WAN & SDN". Darin zeigen wir unter anderem, wie Sie Netzwerkgeräte mit rConfig, Jinja2 und Netdisco verwalten. Außerdem lesen Sie, wie Sie Anmeldungen mit dem Microsoft Network Policy Server unter Kontrolle behalten. In den Tests werfen wir einen Blick auf die NetBrain Integrated Edition 8.0. [mehr]

Vorschau Dezember 2019: Rechenzentrum & Infrastruktur [25.11.2019]

Das Rechenzentrum und die IT-Infrastruktur im Unternehmen bilden die Grundlage für einen erfolgreichen IT-Betrieb. In der Dezember-Ausgabe beleuchtet IT-Administrator das Management und die Automatisierung im Rechenzentrum. So zeigen wir, wie die Netzwerkverwaltung mit Netbox funktioniert und was das neue Wi-Fi 6 für Firmen zu bieten hat. Außerdem lesen Sie im Dezember-Heft, wie die Netzwerkinventarisierung mit der PowerShell funktioniert und was es bei der Verwaltung einer Hyper-V-Umgebung mit dem SCVMM 2019 zu beachten gilt. In den Produkttests beweist unter anderem AnyDesk Enterprise sein Können. [mehr]

Buchbesprechung

Handbuch Online-Shop

von Alexander Steireif, Rouven Rieker, Markus Bückle

Anzeigen