Fachartikel

Synchrone Spiegel gekonnt aufbohren

Synchronous Mirroring, also die Nutzung synchroner Spiegel, soll bei einem Ausfall der Hardware durch ein transparentes Failover zum zweiten Standort einem Datenverlust vorbeugen. In einem virtualisierten Rechenzentrum stoßen synchrone Spiegel jedoch an ihre Grenzen und ließen sich für Administratoren immer schwieriger verwalten. Der Fachartikel zeigt, wie sich die Zuverlässigkeit eines synchronen Spiegels durch Continuous Data Protection und Recovery Automation verbessern lässt.
Synchrone Spiegelung ergibt Sinn, zeigt sich jedoch ohne vereinheitlichende Werkzeuge oft als sehr komplex.
Synchronous Mirroring, auf Deutsch synchrone Spiegelung, kommt vor allem bei großen Unternehmen zum Schutz geschäftskritischer Daten und Anwendungen zum Einsatz. Mit Hilfe eines transparenten Failover zum zweiten Standort soll sich Datenverlust in der Theorie komplett vermeiden lassen (Zero RPO – Recovery Point Objective). Bei diesem Idealfall würde dann natürlich auch keine Zeit zur Wiederherstellung verlorener Dateien verbraucht (Zero RTO – Recovery Time Objective).

In einem virtualisierten Rechenzentrum mit logischen Fehlern erscheinen die Ziele Zero RPO und Zero RTO jedoch immer unerreichbarer. Mehr und mehr Daten bewegen sich im Cache des Hypervisors und innerhalb virtueller Anwendungen. Das durchschnittliche Wachstum von 10 bis 15 Prozent der Anzahl an VMs pro Jahr und die damit zusammenhängende exponentielle Zunahme der Abhängigkeiten zwischen den VMs erhöhen die Schwierigkeit einer konsistenten Wiederherstellung einer Anwendung. Selbst in einer hochverfügbaren Umgebung werden SLAs im Falle eines logischen Fehlers oft eher grob geschätzt.

Synchrone Spiegel mit Nachteilen
Der synchrone Spiegel ist heute die Standardtechnologie für ein hochverfügbares Rechenzentrum, hat aber auch Nachteile: Er ist teuer, aufwändig in der Verwaltung, schützt keine Daten "on the fly", hat keine komplexen Performance- und Skalierungsfunktionen und schützt nicht einmal vor logischen Fehlern. Da ein synchroner Spiegel Daten generell nur vor Hardwareausfällen schützt, muss die IT-Abteilung in zusätzliche Technologien investieren.
Gleichzeitig speichern Hypervisoren und Anwendungen mehr Daten in ihren Caches, wo sie sich durch synchrone Replikation nicht effektiv schützen lassen. Dies wiederum sabotiert das Ziel eines Zero RPO. Eine Vielzahl von Softwarelösungen, die hardwarezentrierte Speichersysteme mit wichtigen Funktionen wie Backups und Snapshots ausstatten, bieten effektiven Schutz vor logischen Fehlern und werden heute von nahezu allen Unternehmen eingesetzt. Diese Lösungen erhöhen jedoch die Komplexität und machen die Umgebung anfälliger für Fehler.

Die Installation, Koordination und Konfiguration von redundanten und diversen Systemen und Softwarelösungen wirkt sich negativ auf das Management der IT-Umgebung aus: Zum einen auf die Planung von Kapazität und Performance, zum anderen auf die konsistente Wiederherstellung virtualisierter Anwendungen. Sind viele verschiedene Hardware- und Softwarelösungen im Einsatz, ist auch mehr Erfahrung für die Wiederherstellung einer oder mehrerer beschädigter Anwendungen nötig.

Da die Datenmengen gleichzeitig exponentiell wachsen, sinkt das Zeitfenster für herkömmliche Backups und Wiederherstellungen rapide. Schreibintensive Anwendungen modifizieren darüber hinaus viele Blöcke auf dem Dateisystem und benötigen viel Speicherplatz für die Snapshots. Durchschnittlich sind so zirka 20 Prozent eines Speichersystems oder 10 bis 15 Prozent pro Datastore nur für Snapshots reserviert.

Performance-Killer Snapshots
Die inkrementelle Speicherung von Snapshot-Änderungen hat erheblichen Einfluss auf die Verwendung dieser Snapshots und mindert die Performance. Je mehr Snapshots für eine VM erstellt werden, desto mehr Aufwand ist für die Virtualisierungssoftware erforderlich, um den aktuellen Zustand der VM auf Basis des ursprünglichen VMDK und aller relevanten Snapshot-Festplatten zu rekonstruieren. Die Anzahl der aktiven Snapshots wirkt sich darüber hinaus negativ auf die Performanceaus aus und damit auf den RPO. In produktiven Umgebungen werden Snapshots für kritische Anwendungen höchstens einmal pro Stunde erstellt. Nicht nur wegen Speicher- und Performanceproblemen, sondern auch, um die produktiven VMs nicht zu beeinträchtigen und sie alle paar Minuten für einen applikationskonsistenten Snapshot anzuhalten. Daher dürfte der durchschnittliche RPO für die meisten VMs tatsächlich zwischen sechs und acht Stunden liegen.

Backups und Snapshots beeinflussen auch die konsistente Wiederherstellung, da Anwendungen, die von mehr als einer Datenbank abhängig sind, nur dann korrekt arbeiten können, wenn alle erforderlichen Datenbanken konsistent sind und sich auf denselben Wiederherstellungspunkt beziehen. Aufgrund der Speicherarchitektur lassen sich zusammengehörige Systeme nicht einfach zu einer Konsistenzgruppe einer Anwendung zusammenfassen. Einfach ausgedrückt: Eine Anwendung ist nur dann konsistent, wenn alle Datenbanken den gleichen Zeitstempel haben. Sind mehrere, logisch miteinander verknüpfte Datensätze auf verschiedenen Servern in unterschiedlichen Speicherbereichen abgelegt, so haben die Snapshots dieser Datensätze unterschiedliche Zeitstempel. Beim Zurücksetzen auf einen Snapshot werden die Datensätze dann nicht auf den gleichen Zeitpunkt zurückgesetzt. Daher ist die betreffende Anwendung manuell in einen konsistenten Zustand zu bringen, bevor sie wieder nutzbar ist. Dieser Prozess, einschließlich der erforderlichen Tests kann mehrere Stunden dauern.

    Seite 1: Synchrone Spiegel mit Nachteilen
    Seite 2: Komponenten und Systemvoraussetzungen von ZVR
    Seite 3: Installation von ZVR in vSphere-Umgebungen


Seite 1 von 3 Nächste Seite >>
7.02.2018/ln/Johan van den Boogaart, Regional Sales Manager DACH bei Zerto.

Nachrichten

Prozessoptimierung [5.02.2020]

Die Prozessmanagement-Software "Consol CM" des gleichnamigen Herstellers ist ab sofort auch in der Cloud verfügbar und steht somit als Software-as-a-Service (SaaS) zur Verfügung. Das neue Angebot umfasst die vollständig verwaltete Bereitstellung des Systems in der Cloud sowie ein subskriptionsbasiertes Pay-per-Use- Preismodell. [mehr]

Komfortableres Cloudmanagement [13.01.2020]

Zyxel stellt die neu gestaltete, achte Version der Nebula Cloud Networking Solution vor. Neben einer überarbeiteten Benutzeroberfläche, die eine Reihe ästhetischer und benutzerfreundlicher Optimierungen verspricht, verfügt Nebula nun über intelligente Management-Tools und eine größere Gerätekompatibilität. [mehr]

Tipps & Tools

Der aktuelle Stand der E-Mail-Verschlüsselung [20.02.2020]

Vertrauliche Informationen müssen geschützt werden, damit sich die Inhalte verschickter Nachrichten nicht im Klartext auslesen lassen. Der Fachartikel stellt den aktuellen Stand der PGP-Verschlüsselung und der damit verbundenen Bestandteile vor – einschließlich des kryptografischen Protokolls, der Schlüsselerzeugung und -übertragung, der Verschlüsselungsverfahren und der Integritätsprüfung. [mehr]

2020: Neue Trainings [6.01.2020]

Auch im neuen Jahr möchten wir Sie mit unseren Trainings wieder mit praxisgerechtem IT-Know-how versorgen. Allein im Februar finden vier Veranstaltungen statt, unter anderem ein Intensiv-Seminar zum Thema "Cyberabwehr" und das Training "Windows 10 richtig aktualisieren". Im Frühjahr schauen wir uns dann an, was KMUs beim Aufbau einer PKI unter Windows Server zu beachten haben. Und im Mai erfahren Sie das Wichtigste zum Thema "Linux- und Active-Directory-Integration". Buchen Sie wie immer frühzeitig – für Abonnenten gilt ein Sondertarif. [mehr]

Buchbesprechung

Technik der IP-Netze

von Anatol Badach und Erwin Hoffmann

Anzeigen