Seite 2 - Datensicherung im Wandel

Lesezeit
2 Minuten
Bis jetzt gelesen

Seite 2 - Datensicherung im Wandel

06.04.2011 - 13:00
Veröffentlicht in:
Incremental Forever: Weitere Fortschritte beim Backup, Nachteile bei der Recovery
Bei diesen Methoden werden Vollbackups weitgehend abgeschafft. In der Regel wird zu Beginn ein Vollbackup erstellt; alle weiteren Backups erfolgen inkrementell zum vorhergehenden Backup als Referenzstatus. Zu unterscheiden sind inkrementelle Backups auf File- und Block-Ebene.

Einige Datensicherungslösungen bieten "File Level Incremental Forever" (FLIF) durch "Synthetic Fulls": Auf dem Datensicherungs-Server werden von Zeit zu Zeit "künstliche" Vollbackups erzeugt, um ältere Backupstände freigeben zu können. Allerdings müssen die Verfahren auf Dauer fehlerfrei und lückenlos funktionieren, was schwierig zu erreichen ist. Insbesondere Filelevel-Scans beim Backup neigen dazu, nicht immer alle Änderungen zu erkennen – was zu dauerhaft unvollständigen Backups führen kann.

"Blocklevel-Incremental Forever" (BLIF) gibt es in zwei Ausprägungen: Neben klassischem BLIF (wie es zum Beispiel mit NetApp "Open Systems SnapVault" und "NetApp Syncsort Integrated Backup" mit Target Deduplication bietet) führen auch Sicherungs-Clients anderer Hersteller mit Deduplizierung auf dem Quellsystem zu einem ähnlichen Ergebnis. Sie reduzieren die Backup-Datenströme sehr deutlich. Um gut skalieren zu können, benötigt ein BLIF-Backup jedoch den Zugriff auf Änderungsmarkierungen oder -Logs, welche im Onlinebetrieb über das Betriebssystem gesammelt werden.

Restores skalieren jedoch besonders bei der Client-Deduplizierung meist deutlich geringer als bei den zuvor genannten B2D-Techniken. Für Backups über WAN-Strecken ist zu erwägen, Kopien der jüngsten Sicherungen vor Ort vorzuhalten.

Snapshot-basierte Backups: Hohe Effizienz
Full Copy Snapshots sind aufgrund des hohen Disk-Bedarfs ungeeignet. Differenzielle Snapshots sollten gewählt werden, da das Halten vieler Snapshot-Stände sinnvoll ist. Die von NetApp implementierten "Write Anywhere" Snapshots skalieren hier am höchsten, da kein Write-Overhead entsteht – sie verhalten sich performanceneutral. Im Gegensatz dazu kommt es bei "Redirect on Write" für das aktive Volume sowie beim Auflösen alter Snapshots zu Performance-Nachteilen. Bei "Copy on first Write" wird die Performance beeinträchtigt, sobald massiv ins aktive Volume geschrieben wird.


Bild 2: Hersteller wie NetApp führen als Vorzüge von Snapshot-basierten Backups
unter anderem deutlich kürzere Wiederherstellungszeiten an


Wichtig ist, dass genügend Snapshots vorgehalten werden können. Stündliche Snapshots sollen in der Regel mehrtägig verfügbar sein, bevor diese dann auf Tages- oder gar Wochenstände ausgedünnt werden. Die typische Vorhaltedauer von Snapshots liegt etwa bei NetApp-Kunden derzeit zwischen einem und drei Monaten – Tendenz steigend. Der Hersteller erlaubt derzeit 255 Snapshots pro Datenvolume – ohne Performanceverlust. Die Rücksicherung ganzer Volumes oder NFS-Files ist bei Verwendung von NetApp SnapRestore durch Pointer-Änderung ohne Datenbewegung möglich. Diese Methode arbeitet mit logischen Verweisen auf Datenblöcke, aus denen sich der Datenstand zu einem bestimmten Zeitpunkt extrem schnell rekonstruieren lässt.

Die Replizierung mit den NetApp-Produkten "SnapMirror" und "SnapVault" sowie Spiegelungen mithilfe von MetroCluster erfolgen nach dem Prinzip "Block-Level-Incremental Forever". Es werden also nur die geänderten Blöcke zum Sekundärspeicher gesandt. Im Desaster-Fall kann der Sekundärspeicher mit seinen Snapshots zum aktiven Volume werden. Dies alles ist schon seit Jahren praxiserprobt und bei vielen Unternehmen verbreitet. Deduplizierungs- und Kompressionsvorteile sind ab dem Primär-Storage nutzbar und können bei Spiegelung, Replizierung und Tape-Backup erhalten bleiben.

Fazit: Snapshot-basierte Datensicherung löst Herausforderungen
Die wachsende IT-Abhängigkeit der Geschäftsprozesse erfordert mittlerweile eine hohes Maß an Desaster-Vorsorge und Verfügbarkeit: Zeitgemäß erscheinen Recovery Point Objectives im Stundenbereich, Recovery Time Objectives im Minutenbereich und verlässliche Disaster Recovery-Verfahren für die meisten Daten. Klassisches B2D und Incremental Forever-Techniken bieten zwar Fortschritte gegenüber dem Backup to Tape, aber nur eine Snapshot-basierte Datensicherungslösung hat das Potenzial, alle Herausforderungen zu meistern – und das auf eine hoch effiziente und wirtschaftliche Weise: Die Datensicherung einzelner Dateien oder Volumes bietet gleichzeitig eine verlässliche Disaster Recovery-Lösung. Herkömmliche, virtualisierte und serviceorientierte Infrastrukturen profitieren gleichermaßen.

         <<Vorherige Seite                          Seite 2 von 2






ln/Dieter Unterseher, Solutions Architect Data Protection, NetApp Deutschland GmbH

Tags

Ähnliche Beiträge

Drei zentrale Herausforderungen für das Datenmanagement

Daten sind ein unverzichtbarer Vermögenswert für Unternehmen geworden. Für ITAdministratoren bedingt dies, neben fundamentalen Datenmanagement-Anforderungen, Veränderungen in den Bereichen Organisationsstruktur, Kultur und Leadership sowie Rollen und Skills voranzutreiben. Der Fachartikel zählt die drei größten Herausforderungen auf, vor denen Organisationen in Bezug auf Datenmanagement stehen.

Im Test: Power Admin Storage Monitor 9.3

Eine effiziente Planung der Storage-Landschaft und ihrer Verfügbarkeit setzt detailliertes Wissen über Beschaffenheit und Alter der gespeicherten Daten voraus. Power Admin Storage Monitor verspricht, den Datenbestand umfassend zu analysieren, laufend zu überwachen und automatisch auf Ereignisse zu reagieren. Dabei liegt der Schwerpunkt auf Windows, doch das flexible Tool bindet auch andere Speicher im Netzwerk per SNMP an.

All-Flash-Rechenzentrum beim Bio-Großhändler

Seit vielen Jahren arbeiten Storage-Anbieter daran, All-Flash-Systeme so zu konzipieren, dass sie sich nicht nur für Tier-1-Anwendungen, sondern zur Speicherung aller Daten im Rechenzentrum verwenden lassen. Das Ziel, dessen Erreichung vor allem die Anschaffungskosten im Weg standen, lautete: All-Flash-Data Center. Wie sieht es in der Praxis aus? Ein deutsches Handelsunternehmen berichtet erstmals über seine Alltagserfahrungen.