Lesezeit
2 Minuten
Seite 2 - Datensicherung im Wandel
Incremental Forever: Weitere Fortschritte beim Backup, Nachteile bei der Recovery
Bei diesen Methoden werden Vollbackups weitgehend abgeschafft. In der Regel wird zu Beginn ein Vollbackup erstellt; alle weiteren Backups erfolgen inkrementell zum vorhergehenden Backup als Referenzstatus. Zu unterscheiden sind inkrementelle Backups auf File- und Block-Ebene.
Einige Datensicherungslösungen bieten "File Level Incremental Forever" (FLIF) durch "Synthetic Fulls": Auf dem Datensicherungs-Server werden von Zeit zu Zeit "künstliche" Vollbackups erzeugt, um ältere Backupstände freigeben zu können. Allerdings müssen die Verfahren auf Dauer fehlerfrei und lückenlos funktionieren, was schwierig zu erreichen ist. Insbesondere Filelevel-Scans beim Backup neigen dazu, nicht immer alle Änderungen zu erkennen – was zu dauerhaft unvollständigen Backups führen kann.
"Blocklevel-Incremental Forever" (BLIF) gibt es in zwei Ausprägungen: Neben klassischem BLIF (wie es zum Beispiel mit NetApp "Open Systems SnapVault" und "NetApp Syncsort Integrated Backup" mit Target Deduplication bietet) führen auch Sicherungs-Clients anderer Hersteller mit Deduplizierung auf dem Quellsystem zu einem ähnlichen Ergebnis. Sie reduzieren die Backup-Datenströme sehr deutlich. Um gut skalieren zu können, benötigt ein BLIF-Backup jedoch den Zugriff auf Änderungsmarkierungen oder -Logs, welche im Onlinebetrieb über das Betriebssystem gesammelt werden.
Restores skalieren jedoch besonders bei der Client-Deduplizierung meist deutlich geringer als bei den zuvor genannten B2D-Techniken. Für Backups über WAN-Strecken ist zu erwägen, Kopien der jüngsten Sicherungen vor Ort vorzuhalten.
Snapshot-basierte Backups: Hohe Effizienz
Full Copy Snapshots sind aufgrund des hohen Disk-Bedarfs ungeeignet. Differenzielle Snapshots sollten gewählt werden, da das Halten vieler Snapshot-Stände sinnvoll ist. Die von NetApp implementierten "Write Anywhere" Snapshots skalieren hier am höchsten, da kein Write-Overhead entsteht – sie verhalten sich performanceneutral. Im Gegensatz dazu kommt es bei "Redirect on Write" für das aktive Volume sowie beim Auflösen alter Snapshots zu Performance-Nachteilen. Bei "Copy on first Write" wird die Performance beeinträchtigt, sobald massiv ins aktive Volume geschrieben wird.
Bild 2: Hersteller wie NetApp führen als Vorzüge von Snapshot-basierten Backups
unter anderem deutlich kürzere Wiederherstellungszeiten an
Wichtig ist, dass genügend Snapshots vorgehalten werden können. Stündliche Snapshots sollen in der Regel mehrtägig verfügbar sein, bevor diese dann auf Tages- oder gar Wochenstände ausgedünnt werden. Die typische Vorhaltedauer von Snapshots liegt etwa bei NetApp-Kunden derzeit zwischen einem und drei Monaten – Tendenz steigend. Der Hersteller erlaubt derzeit 255 Snapshots pro Datenvolume – ohne Performanceverlust. Die Rücksicherung ganzer Volumes oder NFS-Files ist bei Verwendung von NetApp SnapRestore durch Pointer-Änderung ohne Datenbewegung möglich. Diese Methode arbeitet mit logischen Verweisen auf Datenblöcke, aus denen sich der Datenstand zu einem bestimmten Zeitpunkt extrem schnell rekonstruieren lässt.
Die Replizierung mit den NetApp-Produkten "SnapMirror" und "SnapVault" sowie Spiegelungen mithilfe von MetroCluster erfolgen nach dem Prinzip "Block-Level-Incremental Forever". Es werden also nur die geänderten Blöcke zum Sekundärspeicher gesandt. Im Desaster-Fall kann der Sekundärspeicher mit seinen Snapshots zum aktiven Volume werden. Dies alles ist schon seit Jahren praxiserprobt und bei vielen Unternehmen verbreitet. Deduplizierungs- und Kompressionsvorteile sind ab dem Primär-Storage nutzbar und können bei Spiegelung, Replizierung und Tape-Backup erhalten bleiben.
Fazit: Snapshot-basierte Datensicherung löst Herausforderungen
Die wachsende IT-Abhängigkeit der Geschäftsprozesse erfordert mittlerweile eine hohes Maß an Desaster-Vorsorge und Verfügbarkeit: Zeitgemäß erscheinen Recovery Point Objectives im Stundenbereich, Recovery Time Objectives im Minutenbereich und verlässliche Disaster Recovery-Verfahren für die meisten Daten. Klassisches B2D und Incremental Forever-Techniken bieten zwar Fortschritte gegenüber dem Backup to Tape, aber nur eine Snapshot-basierte Datensicherungslösung hat das Potenzial, alle Herausforderungen zu meistern – und das auf eine hoch effiziente und wirtschaftliche Weise: Die Datensicherung einzelner Dateien oder Volumes bietet gleichzeitig eine verlässliche Disaster Recovery-Lösung. Herkömmliche, virtualisierte und serviceorientierte Infrastrukturen profitieren gleichermaßen.
ln/Dieter Unterseher, Solutions Architect Data Protection, NetApp Deutschland GmbH
Bei diesen Methoden werden Vollbackups weitgehend abgeschafft. In der Regel wird zu Beginn ein Vollbackup erstellt; alle weiteren Backups erfolgen inkrementell zum vorhergehenden Backup als Referenzstatus. Zu unterscheiden sind inkrementelle Backups auf File- und Block-Ebene.
Einige Datensicherungslösungen bieten "File Level Incremental Forever" (FLIF) durch "Synthetic Fulls": Auf dem Datensicherungs-Server werden von Zeit zu Zeit "künstliche" Vollbackups erzeugt, um ältere Backupstände freigeben zu können. Allerdings müssen die Verfahren auf Dauer fehlerfrei und lückenlos funktionieren, was schwierig zu erreichen ist. Insbesondere Filelevel-Scans beim Backup neigen dazu, nicht immer alle Änderungen zu erkennen – was zu dauerhaft unvollständigen Backups führen kann.
"Blocklevel-Incremental Forever" (BLIF) gibt es in zwei Ausprägungen: Neben klassischem BLIF (wie es zum Beispiel mit NetApp "Open Systems SnapVault" und "NetApp Syncsort Integrated Backup" mit Target Deduplication bietet) führen auch Sicherungs-Clients anderer Hersteller mit Deduplizierung auf dem Quellsystem zu einem ähnlichen Ergebnis. Sie reduzieren die Backup-Datenströme sehr deutlich. Um gut skalieren zu können, benötigt ein BLIF-Backup jedoch den Zugriff auf Änderungsmarkierungen oder -Logs, welche im Onlinebetrieb über das Betriebssystem gesammelt werden.
Restores skalieren jedoch besonders bei der Client-Deduplizierung meist deutlich geringer als bei den zuvor genannten B2D-Techniken. Für Backups über WAN-Strecken ist zu erwägen, Kopien der jüngsten Sicherungen vor Ort vorzuhalten.
Snapshot-basierte Backups: Hohe Effizienz
Full Copy Snapshots sind aufgrund des hohen Disk-Bedarfs ungeeignet. Differenzielle Snapshots sollten gewählt werden, da das Halten vieler Snapshot-Stände sinnvoll ist. Die von NetApp implementierten "Write Anywhere" Snapshots skalieren hier am höchsten, da kein Write-Overhead entsteht – sie verhalten sich performanceneutral. Im Gegensatz dazu kommt es bei "Redirect on Write" für das aktive Volume sowie beim Auflösen alter Snapshots zu Performance-Nachteilen. Bei "Copy on first Write" wird die Performance beeinträchtigt, sobald massiv ins aktive Volume geschrieben wird.
Bild 2: Hersteller wie NetApp führen als Vorzüge von Snapshot-basierten Backups
unter anderem deutlich kürzere Wiederherstellungszeiten an
Wichtig ist, dass genügend Snapshots vorgehalten werden können. Stündliche Snapshots sollen in der Regel mehrtägig verfügbar sein, bevor diese dann auf Tages- oder gar Wochenstände ausgedünnt werden. Die typische Vorhaltedauer von Snapshots liegt etwa bei NetApp-Kunden derzeit zwischen einem und drei Monaten – Tendenz steigend. Der Hersteller erlaubt derzeit 255 Snapshots pro Datenvolume – ohne Performanceverlust. Die Rücksicherung ganzer Volumes oder NFS-Files ist bei Verwendung von NetApp SnapRestore durch Pointer-Änderung ohne Datenbewegung möglich. Diese Methode arbeitet mit logischen Verweisen auf Datenblöcke, aus denen sich der Datenstand zu einem bestimmten Zeitpunkt extrem schnell rekonstruieren lässt.
Die Replizierung mit den NetApp-Produkten "SnapMirror" und "SnapVault" sowie Spiegelungen mithilfe von MetroCluster erfolgen nach dem Prinzip "Block-Level-Incremental Forever". Es werden also nur die geänderten Blöcke zum Sekundärspeicher gesandt. Im Desaster-Fall kann der Sekundärspeicher mit seinen Snapshots zum aktiven Volume werden. Dies alles ist schon seit Jahren praxiserprobt und bei vielen Unternehmen verbreitet. Deduplizierungs- und Kompressionsvorteile sind ab dem Primär-Storage nutzbar und können bei Spiegelung, Replizierung und Tape-Backup erhalten bleiben.
Fazit: Snapshot-basierte Datensicherung löst Herausforderungen
Die wachsende IT-Abhängigkeit der Geschäftsprozesse erfordert mittlerweile eine hohes Maß an Desaster-Vorsorge und Verfügbarkeit: Zeitgemäß erscheinen Recovery Point Objectives im Stundenbereich, Recovery Time Objectives im Minutenbereich und verlässliche Disaster Recovery-Verfahren für die meisten Daten. Klassisches B2D und Incremental Forever-Techniken bieten zwar Fortschritte gegenüber dem Backup to Tape, aber nur eine Snapshot-basierte Datensicherungslösung hat das Potenzial, alle Herausforderungen zu meistern – und das auf eine hoch effiziente und wirtschaftliche Weise: Die Datensicherung einzelner Dateien oder Volumes bietet gleichzeitig eine verlässliche Disaster Recovery-Lösung. Herkömmliche, virtualisierte und serviceorientierte Infrastrukturen profitieren gleichermaßen.
<<Vorherige Seite Seite 2 von 2
ln/Dieter Unterseher, Solutions Architect Data Protection, NetApp Deutschland GmbH