Fachartikel

Synchrone Spiegel gekonnt aufbohren

Synchronous Mirroring, also die Nutzung synchroner Spiegel, soll bei einem Ausfall der Hardware durch ein transparentes Failover zum zweiten Standort einem Datenverlust vorbeugen. In einem virtualisierten Rechenzentrum stoßen synchrone Spiegel jedoch an ihre Grenzen und ließen sich für Administratoren immer schwieriger verwalten. Der Fachartikel zeigt, wie sich die Zuverlässigkeit eines synchronen Spiegels durch Continuous Data Protection und Recovery Automation verbessern lässt.
Synchrone Spiegelung ergibt Sinn, zeigt sich jedoch ohne vereinheitlichende Werkzeuge oft als sehr komplex.
Synchronous Mirroring, auf Deutsch synchrone Spiegelung, kommt vor allem bei großen Unternehmen zum Schutz geschäftskritischer Daten und Anwendungen zum Einsatz. Mit Hilfe eines transparenten Failover zum zweiten Standort soll sich Datenverlust in der Theorie komplett vermeiden lassen (Zero RPO – Recovery Point Objective). Bei diesem Idealfall würde dann natürlich auch keine Zeit zur Wiederherstellung verlorener Dateien verbraucht (Zero RTO – Recovery Time Objective).

In einem virtualisierten Rechenzentrum mit logischen Fehlern erscheinen die Ziele Zero RPO und Zero RTO jedoch immer unerreichbarer. Mehr und mehr Daten bewegen sich im Cache des Hypervisors und innerhalb virtueller Anwendungen. Das durchschnittliche Wachstum von 10 bis 15 Prozent der Anzahl an VMs pro Jahr und die damit zusammenhängende exponentielle Zunahme der Abhängigkeiten zwischen den VMs erhöhen die Schwierigkeit einer konsistenten Wiederherstellung einer Anwendung. Selbst in einer hochverfügbaren Umgebung werden SLAs im Falle eines logischen Fehlers oft eher grob geschätzt.

Synchrone Spiegel mit Nachteilen
Der synchrone Spiegel ist heute die Standardtechnologie für ein hochverfügbares Rechenzentrum, hat aber auch Nachteile: Er ist teuer, aufwändig in der Verwaltung, schützt keine Daten "on the fly", hat keine komplexen Performance- und Skalierungsfunktionen und schützt nicht einmal vor logischen Fehlern. Da ein synchroner Spiegel Daten generell nur vor Hardwareausfällen schützt, muss die IT-Abteilung in zusätzliche Technologien investieren.
Gleichzeitig speichern Hypervisoren und Anwendungen mehr Daten in ihren Caches, wo sie sich durch synchrone Replikation nicht effektiv schützen lassen. Dies wiederum sabotiert das Ziel eines Zero RPO. Eine Vielzahl von Softwarelösungen, die hardwarezentrierte Speichersysteme mit wichtigen Funktionen wie Backups und Snapshots ausstatten, bieten effektiven Schutz vor logischen Fehlern und werden heute von nahezu allen Unternehmen eingesetzt. Diese Lösungen erhöhen jedoch die Komplexität und machen die Umgebung anfälliger für Fehler.

Die Installation, Koordination und Konfiguration von redundanten und diversen Systemen und Softwarelösungen wirkt sich negativ auf das Management der IT-Umgebung aus: Zum einen auf die Planung von Kapazität und Performance, zum anderen auf die konsistente Wiederherstellung virtualisierter Anwendungen. Sind viele verschiedene Hardware- und Softwarelösungen im Einsatz, ist auch mehr Erfahrung für die Wiederherstellung einer oder mehrerer beschädigter Anwendungen nötig.

Da die Datenmengen gleichzeitig exponentiell wachsen, sinkt das Zeitfenster für herkömmliche Backups und Wiederherstellungen rapide. Schreibintensive Anwendungen modifizieren darüber hinaus viele Blöcke auf dem Dateisystem und benötigen viel Speicherplatz für die Snapshots. Durchschnittlich sind so zirka 20 Prozent eines Speichersystems oder 10 bis 15 Prozent pro Datastore nur für Snapshots reserviert.

Performance-Killer Snapshots
Die inkrementelle Speicherung von Snapshot-Änderungen hat erheblichen Einfluss auf die Verwendung dieser Snapshots und mindert die Performance. Je mehr Snapshots für eine VM erstellt werden, desto mehr Aufwand ist für die Virtualisierungssoftware erforderlich, um den aktuellen Zustand der VM auf Basis des ursprünglichen VMDK und aller relevanten Snapshot-Festplatten zu rekonstruieren. Die Anzahl der aktiven Snapshots wirkt sich darüber hinaus negativ auf die Performanceaus aus und damit auf den RPO. In produktiven Umgebungen werden Snapshots für kritische Anwendungen höchstens einmal pro Stunde erstellt. Nicht nur wegen Speicher- und Performanceproblemen, sondern auch, um die produktiven VMs nicht zu beeinträchtigen und sie alle paar Minuten für einen applikationskonsistenten Snapshot anzuhalten. Daher dürfte der durchschnittliche RPO für die meisten VMs tatsächlich zwischen sechs und acht Stunden liegen.

Backups und Snapshots beeinflussen auch die konsistente Wiederherstellung, da Anwendungen, die von mehr als einer Datenbank abhängig sind, nur dann korrekt arbeiten können, wenn alle erforderlichen Datenbanken konsistent sind und sich auf denselben Wiederherstellungspunkt beziehen. Aufgrund der Speicherarchitektur lassen sich zusammengehörige Systeme nicht einfach zu einer Konsistenzgruppe einer Anwendung zusammenfassen. Einfach ausgedrückt: Eine Anwendung ist nur dann konsistent, wenn alle Datenbanken den gleichen Zeitstempel haben. Sind mehrere, logisch miteinander verknüpfte Datensätze auf verschiedenen Servern in unterschiedlichen Speicherbereichen abgelegt, so haben die Snapshots dieser Datensätze unterschiedliche Zeitstempel. Beim Zurücksetzen auf einen Snapshot werden die Datensätze dann nicht auf den gleichen Zeitpunkt zurückgesetzt. Daher ist die betreffende Anwendung manuell in einen konsistenten Zustand zu bringen, bevor sie wieder nutzbar ist. Dieser Prozess, einschließlich der erforderlichen Tests kann mehrere Stunden dauern.

    Seite 1: Synchrone Spiegel mit Nachteilen
    Seite 2: Komponenten und Systemvoraussetzungen von ZVR
    Seite 3: Installation von ZVR in vSphere-Umgebungen


Seite 1 von 3 Nächste Seite >>
7.02.2018/ln/Johan van den Boogaart, Regional Sales Manager DACH bei Zerto.

Nachrichten

Azure-Cloud für Industriemaschinen [23.04.2018]

Microsoft hat auf der Hannover Messe neue Dienste für industrielle IoT-Anwendungen vorgestellt: Microsoft plant Azure IoT Hub und Device Management auf Azure Stack verfügbar zu machen. Damit können Unternehmen zukünftig IIoT-Projekte nun auch komplett im eigenen Rechenzentrum betreiben, wenn sie ihre IoT-Geräte lokal verwalten möchten. [mehr]

Dedizierte Telekom-Cloud [19.04.2018]

Die Open Telekom Cloud ist ab sofort als hybride Cloud-Lösung verfügbar – und bietet damit bei Bedarf noch mehr Sicherheit und Geschwindigkeit. Bisher gab es die Rechen- und Speicherkapazitäten ausschließlich als Public Cloud aus den Rechenzentren der Telekom in Sachsen-Anhalt. [mehr]

Tipps & Tools

Datenschutzkonformer Transfer [9.05.2018]

Wenn Sie den Massenanbietern für File-Transfers wie 'wetransfer' oder 'wesendit' nicht so recht über den Weg trauen, können Sie Ihre Daten alternativ mit der Webseite 'TeamBeam.de' an die gewünschten Empfänger schicken. Der Anbieter ist auf kostenpflichtige Angebote für Firmen spezialisiert, bietet über sein Internetportal aber auch eine kostenfreie Basisversion für den Datentransfer an. Dabei sitzen die Server in Deutschland. [mehr]

Viele Gewinne bei Leserbefragung [24.04.2018]

Ihre Meinung zählt für IT-Administrator mehr als alles andere, denn an Ihren Bedürfnissen als Administrator richten wir unser Heft jeden Monat aus. Daher führen wir 2018 wieder eine Leserbefragung durch. In diesem Jahr interessiert uns vor allem die Frage, ob und inwieweit Sie in Managementaufgaben eingebunden sind und beispielsweise Projekte verantworten oder für die IT-Budgetplanung zuständig sind. Unter allen, die bis zum 27. April teilnehmen, verlosen wir wertvolle Preise. [mehr]

Buchbesprechung

Anzeigen