Backup und Recovery

Lesezeit
4 Minuten
Bis jetzt gelesen

Backup und Recovery

19.04.2011 - 11:46
Veröffentlicht in:
In unserer Grundlagen-Rubrik erklären wir wichtige Aufgaben und Technologien aus dem Arbeitsalltag eines Netzwerk- und Systemadministrators. Hier erfahren Sie anhand prägnanter Erklärungen zu den wichtigsten Begriffen des jeweiligen Themenfeldes Hintergründe und Zusammenhänge in kompakter, praxisnaher Form.

Backups spielen eine zentrale Rolle in der Datensicherheit. Nur mit ihrer Hilfe lassen sich Datenverluste zuverlässig vermeiden, die etwa durch technische Defekte oder Bedienfehler entstehen. Je nach Art der Daten, den laufenden Änderungen an ihnen und der benötigten Wiederherstellzeit im Fall eines Recovery bieten sich unterschiedliche Backup-Methoden an. Nicht zuletzt spielt die Kostenfrage eine Rolle, wenn es um die Wahl von Backup-Medien und -Methoden geht.
Vollbackups vs. inkrementelle Sicherungen
Beim aktuellen Datenwachstum ist es wichtig, den bestehenden Speicherplatz sinnvoll zu nutzen und nicht einfach täglich eine Volldatensicherung von allen Daten zu erstellen. Gangbar sind hier derzeit zwei weitere Arten des Backups: Für das tägliche Backup der Daten ist eine inkrementelle Datensicherung das Mittel der Wahl. Dabei werden lediglich alle geänderten Daten seit der letzten inkrementellen oder Volldatensicherung kopiert. Diese Methode kann je nach Infrastruktur sehr viel Zeit, Bandbreite im Netzwerk und Speicherplatz sparen. Es gibt jedoch auch Nachteile, denn durch eine inkrementelle Datensicherung erhöhen sich bei einer Rücksicherung Zeit und Aufwand. Dies liegt daran, dass erst die letzte Vollsicherung und danach alle inkrementellen Datensicherungen Schritt für Schritt wiederhergestellt werden müssen.

Sollte es seit der letzten Vollsicherung nur wenige Änderungen gegeben haben oder eine hohe Verfügbarkeitsanforderung an die betroffenen Daten bestehen, ist eine differenzielle Datensicherung empfehlenswert. Dabei kommt es lediglich zu einem Speichern aller seit der letzten Vollsicherung geänderten Daten. Damit lässt sich bei der Rücksicherung viel Zeit sparen. Noch recht neu auf dem Markt sind Datensicherungslösungen, die eine Datei unmittelbar nach einer Änderung sichern. Diese Lösungen dienen einem kontinuierlichen Schutz von Daten und werden häufig für die Absicherung unternehmenskritischer Daten wie E-Mails, Freigaben oder Datenbanken genutzt.

Datenspezifikation bedingt Backup-Art
Über ein Backup lassen sich verschiedene Typen von Daten sichern. Die Spezifikation der zu sichernden Daten spielt eine große Rolle, da zwischen Anwendungs- und Betriebssoftware, System-, Anwendungs- und Protokolldaten unterschieden wird. So finden sich in einer Sicherung einzelne Dateien und Ordner, Datenbanken oder virtuelle Infrastrukturen wie XEN, VMware oder Microsoft Hyper-V. Ein Backup kann jedoch nicht alles abdecken – beispielsweise lässt sich mit einer reinen Datensicherung kein Betriebssystem speichern. Dies ist lediglich mit einem sogenannten Abbild (Image) möglich. Mit dem Speicherabbild lassen sich ganze Partitionen sichern und wiederherstellen, es werden alle Daten auf der Partition inklusive Speicherort gesichert. Dies ist notwendig, da für das Starten des Betriebssystems einige Dateien (wie etwa die Auslagerungsdatei) an einer vordefinierten Stelle auf der Festplatte abgelegt sein müssen.

Wahl des passenden Speichermediums
Grundsätzlich gibt es drei Arten von Speichermedien: optische Datenträger, Magnetbänder und Festplatten. Tape-Laufwerke genießen eine lange Tradition bei der Datensicherung, haben allerdings auch ihre Nachteile. So ist es schwierig, sie dauerhaft am Streamen zu halten. Staubpartikel gefährden Bandmedien ebenso wie die Schreib-Leseköpfe. Ein RAID-Verbund für Tape ist nicht sinnvoll umsetzbar, so dass Störungen drohen. Der hohe Preis der Tape-Laufwerke limitiert die Anzahl paralleler Sicherungsprozesse stark. Insgesamt gesehen ist Tape als primäres Sicherungsmedium nur noch selten empfehlenswert. Für Backup-Kopien als Ergänzung zu B2D (auch über NDMP für Snapshot-basiertes Backup) und vor allem für die langfristige Haltung von Backups ist Tape dagegen oft weiterhin sinnvoll.

Die Datensicherung auf Festplatten ermöglicht gegenüber Backup to Tape eine deutliche Verringerung der Vollbackups durch häufigere inkrementelle Backups. Dies kann zwar zu moderat längeren Restore-Zeiten führen, aber die Vorteile beim Backup überwiegen, denn es wird deutlich weniger Speicherkapazität verbraucht und die I/O-Last für die Backups nimmt signifikant ab. Auch für die meisten Datenbanken ist dies anwendbar (Oracle, MaxDB und IBM DB2 unterstützen Blocklevel Incremental. Microsoft SQL Server unterstützt seit Windows Server 2008 differenzielle Sicherungen). Die Reduzierung der Vollbackups macht auch Sinn, wenn Kompression oder Deduplizierung folgen.

Bleiben die Backup-Daten unkomprimiert, wird es aufgrund des hohen Plattenspeicherbedarfs bereits nach wenigen Tagen unwirtschaftlich, die Backups auf Disk vorzuhalten, was die Reduzierung der Vollbackups stark einschränkt. Daher ist B2D auf komprimierbaren Disk-Medien meist sinnvoller. Dies ist gegenüber der Deduplizierung risikoarm und bietet eine hohe Lesegeschwindigkeit für Restores und Bandkopien. Eine Reduzierung auf zwei- bis vierwöchige Vollbackups ist hiermit oft möglich.

Deduplizierung gegen doppelte Datenhaltung
Deduplizierung bietet sich an, falls beim Backup zahlreiche Dubletten gesichert werden, etwa aufgrund mehrerer Vollbackups oder mehrfach vorhandener Dateninhalte. In diesem Falle lassen sich mit Deduplizierung deutlich größere Verdichtungsraten erreichen. Wird "inline", also während statt nach dem Sicherungsprozess dedupliziert, entfallen Plattenkapazitäten als Zwischenspeicher ebenso wie Nachverdichtungsprozesse. Der reduzierte Plattenbedarf erlaubt oft eine Backup-Vorhaltezeit von bis zu etwa drei Monaten. Außerdem können mit Hilfe einer deduplizierten Replizierung Desaster-Kopien der Backups über WAN in ein entferntes Rechenzentrum transferiert werden.

Nach einer Deduplizierung erfordert das sequenzielle Lesen deduplizierter Daten jedoch zahlreiche gestreute Disk-I/Os. Dies bremst parallel angeforderte Rücksicherungen und Bandkopien stark. Obwohl mehrere am Markt befindliche Lösungen relativ ausgereift sind, sind gewisse Risiken der Deduplizierungstechnik abzuwägen, wie etwa die intern komplexe Verpointerung für Datensicherungsstrom-Deduplizierung, meist noch ergänzt um das so genannte Hash Key Collision -Risiko: Erfolgt bei gleichen Hash Keys aus Performancegründen keine Verifikation auf Datengleichheit, können Datenverluste bei späteren Restores eintreten – über alle vorgehaltenen Sicherungsgenerationen hinweg.

Backups in virtuellen Umgebungen
Die zunehmende Beliebtheit der Virtualisierungstechnologie erfordert von Administratoren gleichzeitig Kenntnisse der grundlegenden Sicherungsplanung sowie Möglichkeiten für ein professionelles und effizientes Daten-Management in virtuellen Umgebungen. Zu groß ist sonst die Gefahr eines Datenverlusts für das Unternehmen. Um virtuelle Umgebungen zu sichern, gibt es verschiedene Herangehensweisen.

Das Backup kann von außen am Host-System selbst erstellt werden. Dabei erfolgt die Sicherung der virtuellen Maschinen zunächst durch ein einfaches File-Backup der Gesamtdatei, die die Informationen der virtuellen Maschinen beinhaltet. In der Praxis hat diese Methode jedoch den Nachteil, dass virtuelle Maschinen im produktiven Einsatz einen sich ständig ändernden Satz an Benutzerdaten, Einstellungen und Anwendungen mitbringen. Es besteht also die Gefahr, dass durch ein einfaches Datei-Backup über den Host diese Zustandsinformationen und damit der vollständige Status einer laufenden virtuellen Maschine nicht gesichert werden. Um ein konsistentes Backup zu erstellen, muss die virtuelle Maschine für den Datensicherungsprozess in den Suspend-Modus gesetzt oder besser noch heruntergefahren werden – was für einen Server in einer produktiven Umgebung jedoch keine wirklich realistische Option darstellt.

Eine weitere Möglichkeit neben der Sicherung über das Wirtssystem besteht in der Datensicherung und Wiederherstellung durch einen Agenten innerhalb virtueller Maschinen. Aktuelle Disaster-Recovery-Lösungen bieten so alle Möglichkeiten, die sie auch aus der physikalischen Backup-Welt bekannt sind. Die Agenten behandeln die virtuellen Maschinen wie jeden anderen Server im Netzwerk und ermöglichen das Erstellen von Images sowie von inkrementellen und differenziellen Backups im laufenden Betrieb.

Im Desaster-Fall können Administratoren einzelne Dateien, Ordner oder komplette Daten-Partitionen innerhalb weniger Minuten wiederherstellen. Sobald die Zahl der virtuellen Server aber wächst, entstehen die ersten Probleme. Einerseits steigt der Verwaltungsaufwand für Administratoren, die einen Backup-Agenten für jede virtuelle Maschine managen müssen, andererseits werden die durch die Virtualisierung erwarteten Kosteneinsparungen stark strapaziert, wenn Lizenzkosten für jeden Agenten fällig werden.

dr

Mehr zu diesem Thema finden Sie in der Ausgabe April 2011 des IT-Administrator.

Ähnliche Beiträge

Cluster

Als Cluster bezeichnen wir im Folgenden einen Verbund von vernetzten Rechnern, die nach außen hin als ein einziger Rechner erscheinen. Die in einem Cluster befindlichen Computer werden auch Knoten (Nodes) genannt. Eine alternative Bezeichnung für die Summe dieser Knoten lautet Serverfarm. Eine derartige Zusammenschaltung von Rechnern verfolgt in der Regel eines der folgenden drei Ziele: Hochverfügbarkeit (HA), High Performance Computing (HPC) oder Load Balancing (LB), wobei die Grenzen zwischen den beiden letztgenannten Varianten eher fließend sind.

Seite 2 - Wie künstliche Intelligenz das Rechenzentrum prägt

5G und IoT verlagern Workloads an den Edge
Cloud und mobile Konnektivität haben in den vergangenen Jahren auf vielen Gebieten die IT-Entwicklung geprägt. Über zehn Millionen Haushalte haben inzwischen zum Smarthome umgerüstet, nutzen also Geräte des IoT. Ein Ende dieses Wachstums ist derzeit noch nicht auszumachen. Die zunehmende Adaption von 5G wird der gesamten Entwicklung einen weiteren Schub verleihen und den Weg vom IoT zum IoE (Internet of Everything) bahnen.

Wie künstliche Intelligenz das Rechenzentrum prägt

Der Erfolg von KI-Projekten hängt von zahlreichen Faktoren ab. Dazu zählen die gewählten Methoden, die Modelle, die konkreten Algorithmen und auch die Datenqualität. Unterschätzt wird von IT-Verantwortlichen oft aber ein anderer, hoch relevanter Aspekt: die Infrastruktur des Rechenzentrums. Unser Fachartikel erklärt, wieso es nicht genügt, sich nur um Speicherkapazität und Sicherungskonzepte wie Data Warehouse, Data Lake, und Lakehouse Gedanken zu machen.