Datensicherung im Wandel

Lesezeit
3 Minuten
Bis jetzt gelesen

Datensicherung im Wandel

06.04.2011 - 13:00
Veröffentlicht in:
Immer mehr Daten auf immer weniger Plattenlaufwerken verursachen oft massive Backup- und Restore-Probleme. In unserem Fachbeitrag erläutern wir die Bandbreite verschiedener Backup-Ansätze, deren Vor- und Nachteile und bevorzugten Einsatzgebiete. Das Spektrum umfasst dabei unter anderem B2Tape, B2D mit Deduplizierung und Block Level Incremental Forever-Verfahren bis hin zu Snapshot-basiertem Backup.
Kaum ein IT-Bereich ist so stark im Umbruch wie die Datensicherung. Die Ursachen dafür liegen in den stark veränderten und sehr sportlichen Herausforderungen, die Datensicherungslösungen zu bewältigen haben:

  • Die Kapazitäten pro Festplattenlaufwerk wachsen deutlich stärker als ihre Geschwindigkeit. Gegenüber dem Jahr 2000 fasste ein Laufwerk im Jahr 2010 das 75-fache, war aber nur fünf Mal so schnell. Dieser ungebrochene Trend führt zu massiven Zeitproblemen beim traditionellen Backup.
  • Die aufkommende Flashtechnik in Form von SSDs, Hybrid-Disks und Plattensubsystem-Caches beschleunigt den Trend zur Verwendung weniger langsamer Hochkapazitätslaufwerke und macht Vollbackups noch kritischer.
  • Deduplizierung und Kompression für Primärdaten verbreiten sich. Traditionelle Backup-Methoden müssen als Folge bis zu vier Mal so viele Daten pro Plattenspindel lesen und schreiben.
  • Große Daten-Volumes wachsen überdurchschnittlich schnell: Traditionelle Backup- und Restore-Laufzeiten für große Datenbanken als auch Volumes mit vielen Millionen Files gefährden immer mehr die Backup- und Restore-SLAs.
  • Für virtuelle Umgebungen passen herkömmliche Methoden aufgrund ihrer hohen I/O-Last ohnehin nicht mehr, da hier ein einziger physischer Server die Backup I/O-Last für alle darauf laufenden virtuellen Maschinen tragen muss. Hinzu kommt der Trend zu Cloud-Infrastrukturen, in denen die Datensicherung hoch automatisiert nach definierter Serviceklasse eingerichtet, durchgeführt und überwacht werden soll.
  • Die wachsende IT-Abhängigkeit der Geschäftsprozesse erfordert bessere Backup/Restore-SLAs und eine verbesserte Desaster-Vorsorge. Als zeitgemäß für die Mehrheit der Daten erscheinen inzwischen stündliche Backups, Restores im Minutenbereich. Backups sollen dabei auch über große Entfernungen laufend zeitnah und konsistent sein. Ebenso sind Desaster-Optionen wünschenswert, die einen einfach und zuverlässig umsetzbaren Notbetrieb ermöglichen.
Unternehmen sollten daher ihre Backup- und Desaster- Strategie überprüfen. Der Wechsel auf effizientere Backup-to-Disk (B2D)-Methoden ist meist sinnvoll und wirtschaftlich umsetzbar.

Traditionelles Backup to Disk: Fortschritte gegenüber Backup to Tape
Tape-Laufwerke haben ihre Nachteile: Es ist schwierig, sie dauerhaft am Streamen zu halten. Staubpartikel gefährden Bandmedien ebenso wie die Schreib-Leseköpfe. Ein RAID-Verbund für Tape ist nicht sinnvoll umsetzbar, so dass Störungen drohen. Der hohe Preis der Tape-Laufwerke limitiert die Anzahl paralleler Sicherungsprozesse stark. Insgesamt gesehen ist Tape als primäres Sicherungsmedium nur noch selten empfehlenswert. Für Backup-Kopien als Ergänzung zu B2D (auch über NDMP für Snapshot-basiertes Backup) und vor allem für die langfristige Haltung von Backups ist Tape dagegen oft weiterhin sinnvoll.


Bild 1: In Verbindung mit Deduplizierung und Server-Virtualisierung
bieten Snapshot-basierte Sicherungen diverse Vorteile


Die Datensicherung auf Festplatten ermöglicht gegenüber Backup to Tape eine deutliche Verringerung der Vollbackups durch häufigere inkrementelle Backups. Dies kann zwar zu moderat längeren Restore-Zeiten führen, aber die Vorteile beim Backup überwiegen, denn es wird deutlich weniger Speicherkapazität verbraucht und die I/O-Last für die Backups nimmt signifikant ab. Auch für die meisten Datenbanken ist dies anwendbar (Oracle, MaxDB und IBM DB2 unterstützen Blocklevel Incremental. Microsoft SQL Server unterstützt seit Windows Server 2008 differenzielle Sicherungen). Die Reduzierung der Vollbackups macht auch Sinn, wenn Kompression oder Deduplizierung folgen.

Bleiben die Backup-Daten unkomprimiert, wird es aufgrund des hohen Plattenspeicherbedarfs bereits nach wenigen Tagen unwirtschaftlich, die Backups auf Disk vorzuhalten, was die Reduzierung der Vollbackups stark einschränkt. Daher ist B2D auf komprimierbaren Disk-Medien meist sinnvoller. Dies ist gegenüber der Deduplizierung risikoarm und bietet eine hohe Lesegeschwindigkeit für Restores und Bandkopien. Eine Reduzierung auf zwei- bis vierwöchige Vollbackups ist hiermit oft möglich.

B2D mit Deduplizierung bietet sich an, falls beim Backup zahlreiche Dubletten gesichert werden, etwa aufgrund mehrerer Vollbackups oder mehrfach vorhandener Dateninhalte. In diesem Falle lassen sich mit Deduplizierung deutlich größere Verdichtungsraten erreichen. Wird "inline", also während statt nach dem Sicherungsprozess dedupliziert, entfallen Plattenkapazitäten als Zwischenspeicher ebenso wie Nachverdichtungsprozesse. Der reduzierte Plattenbedarf erlaubt oft eine Backup-Vorhaltezeit von bis zu etwa drei Monaten. Außerdem können mit Hilfe einer deduplizierten Replizierung Desaster-Kopien der Backups über WAN in ein entferntes Rechenzentrum transferiert werden.

Nach einer Deduplizierung erfordert das sequenzielle Lesen deduplizierter Daten jedoch zahlreiche gestreute Disk-I/Os. Dies bremst parallel angeforderte Rücksicherungen und Bandkopien stark. Obwohl mehrere am Markt befindliche Lösungen relativ ausgereift sind, sind gewisse Risiken der Deduplizierungstechnik abzuwägen, wie etwa die intern komplexe Verpointerung für Datensicherungsstrom-Deduplizierung, meist noch ergänzt um das so genannte Hash Key Collision -Risiko: Erfolgt bei gleichen Hash Keys aus Performancegründen keine Verifikation auf Datengleichheit, können Datenverluste bei späteren Restores eintreten – über alle vorgehaltenen Sicherungsgenerationen hinweg.

Bei allen B2D-Varianten (insbesondere bei der Verwendung einer Disk-/NAS-Schnittstelle für die Backups) sollte auch bedacht werden, dass ein ins Rechenzentrum auf den Backupserver eingedrungener Virus nicht in der Lage sein sollte, sämtliche Backup-Kopien zu zerstören.




                                                Seite 1 von 2                     Nächste Seite>>






ln/Dieter Unterseher, Solutions Architect Data Protection, NetApp Deutschland GmbH

Tags

Ähnliche Beiträge

Drei zentrale Herausforderungen für das Datenmanagement

Daten sind ein unverzichtbarer Vermögenswert für Unternehmen geworden. Für ITAdministratoren bedingt dies, neben fundamentalen Datenmanagement-Anforderungen, Veränderungen in den Bereichen Organisationsstruktur, Kultur und Leadership sowie Rollen und Skills voranzutreiben. Der Fachartikel zählt die drei größten Herausforderungen auf, vor denen Organisationen in Bezug auf Datenmanagement stehen.

Im Test: Power Admin Storage Monitor 9.3

Eine effiziente Planung der Storage-Landschaft und ihrer Verfügbarkeit setzt detailliertes Wissen über Beschaffenheit und Alter der gespeicherten Daten voraus. Power Admin Storage Monitor verspricht, den Datenbestand umfassend zu analysieren, laufend zu überwachen und automatisch auf Ereignisse zu reagieren. Dabei liegt der Schwerpunkt auf Windows, doch das flexible Tool bindet auch andere Speicher im Netzwerk per SNMP an.

All-Flash-Rechenzentrum beim Bio-Großhändler

Seit vielen Jahren arbeiten Storage-Anbieter daran, All-Flash-Systeme so zu konzipieren, dass sie sich nicht nur für Tier-1-Anwendungen, sondern zur Speicherung aller Daten im Rechenzentrum verwenden lassen. Das Ziel, dessen Erreichung vor allem die Anschaffungskosten im Weg standen, lautete: All-Flash-Data Center. Wie sieht es in der Praxis aus? Ein deutsches Handelsunternehmen berichtet erstmals über seine Alltagserfahrungen.