Meldung

Nur fehlgeschlagene Backupjobs wiederholen

Bei wichtigen Systemen ist es ratsam, aus Sicherheitsgründen mehrere Backupjobs und Restore-Points aufzusetzen. Wenn aber einige fehlschlagen, müssen Sie bei der Nutzung von Veritas Backup Exec 20.3 nicht gleich alle, sondern nur die fehlgeschlagenen Jobs wiederholen. Unser Tipp zeigt Ihnen, wie das funktioniert.
In Veritas Backup Exec 20.3 ist es möglich nur die fehlgeschlagenen Backupjobs und Restore-Points zu wiederholen.
Es ist durchaus üblich, für kritische Systeme mehrere Recovery Points und Backupvorgänge aufzusetzen. Scheitert ein Element bei mehrteiligen Backupaufträgen, fehlt allerdings der entsprechende Recovery Point. Ein Beispiel soll dies verdeutlichen: In einem Auftrag wurden leider nur zehn der existierenden zwölf virtuellen Maschinen gesichert. Der Administrator hat nun folgende Optionen: Er führt den gesamten Prozess erneut durch. Oder er setzt einen neuen Job für die zwei virtuellen Maschinen auf, bei denen das Backup fehlgeschlagen ist. Beide Ansätze sind jedoch zeit- und arbeitsaufwendig.

Seit der Version 20.3 verfügt Backup Exec [1] daher über eine neue Option mit dem Namen "Nur fehlgeschlagene Aufträge wiederholen". Sie können damit ohne großen Aufwand einen neuen Job nur für die fehlgeschlagenen Ressourcen starten. Dazu müssen Sie lediglich in der Backup-Exec-Konsole auf die rechte Maustaste klicken und die Option aus dem Reiter auswählen. Diese Funktion wird überall dort aufgelistet, wo auch die Option "Jetzt ausführen" zu finden ist. Sie wird übrigens nur dann tatsächlich aktiviert, wenn der letzte Durchlauf des Jobs fehlgeschlagen ist. Die jeweiligen Job-Protokolle liefern dem System dabei die wichtigen Details zu den Ressourcen, die im Job übersprungen wurden.

Backup Exec vereinfacht außerdem die Wiederherstellung ganzer Systeme, wenn Sie für den jeweiligen Backupjob die Zusatzoption "Simplified Disaster Recovery" aktiviert haben. In diesem Fall interpretiert die Option "Nur fehlgeschlagene Aufträge wiederholen" alle im Backupjob abgebildeten Ressourcen als kritisch. Die Option führt dann erneut eine Sicherung aller im Job ausgewählten Elemente durch, auch wenn die kritischen Elemente bereits erfolgreich gesichert wurden und der Job nur bei als unkritisch definierten Ordnern gescheitert ist. So ist garantiert, dass der Wiederherstellungspunkt stets aktuell bleibt und alle Elemente im Job enthält, auch die unkritischen.

Die Option ist übrigens nicht als Ersatz für die Funktion "Auftragswiederaufnahme" gedacht. Diese ermöglicht einen Neustart ab dem Zeitpunkt des Fehlers, mit einer Granularität auf Dateiebene. Wenn beispielsweise das NTFS-Volume E: genau 100 Dateien umfasste und die Sicherung nach dem Backup von 50 Dateien fehlgeschlagen ist, ermöglicht Check Point Restart, dass der nächste Durchlauf des Jobs ab der fehlgeschlagenen Datei fortgesetzt wird. Umfasste ein Auftrag die Platten D: und E:, ist aber die Sicherung für E: fehlgeschlagen, war aber für D: erfolgreich , dann würde "Nur fehlgeschlagene Aufträge wiederholen" E: vollständig sichern (abhängig von der Sicherungsmethode des Auftrags), aber D: überspringen. Innerhalb der fehlgeschlagenen Ressource beginnt der Job "Nur fehlgeschlagene Aufträge wiederholen" nicht mit der fehlgeschlagenen Datei.
30.06.2019/ln

Tipps & Tools

Im Test: EnterpriseDB Postgres [30.07.2020]

In vielen Unternehmen gilt eine Art Datenbank-Oligopol: Entweder kommt Oracle oder MySQL zum Einsatz. EnterpriseDB will das mit seiner gleichnamigen PostgreSQL-Distribution ändern. EnterpriseDB Postgres erwies sich im Test als robuste relationale Datenbank mit vielen Enterprise-Features, die sich hinter Oracle & Co. keineswegs zu verstecken brauchen. Vor allem in Sachen Migration und Kompatibilität konnte uns die Plattform überzeugen und auch das Backup-Tool erhielt unsere Zustimmung. [mehr]

Hochverfügbare SQL-Cluster in der Google-Cloud [23.07.2020]

SQL-Server-Failovercluster-Instanzen stellen die Hochverfügbarkeit von SQL-Servern sicher. Um der Anforderung an gemeinsam nutzbaren Speicher in der Google-Cloud gerecht zu werden, empfiehlt der Cloudprovider Storage Spaces Direct. Die Krux dabei: Die Einrichtung erfordert, dass sich alle VMs und der Speicher im selben Rechenzentrum befinden. Hochverfügbarkeit gewährleistet Google jedoch nur bei standortübergreifenden Konfigurationen. Wie sich dieses Dilemma lösen lässt, verrät unsere Schritt-für-Schritt-Anleitung. [mehr]

Fachartikel

Advertorial: NVMe und NVMe-oF: die Grundlagen für agile Dateninfrastrukturen der nächsten Generation [3.08.2020]

Die neue OpenFlex Data24 NVMe-oF-Speicherplattform von Western Digital bietet die Grundlage für agile Dateninfrastrukturen der nächsten Generation. Sie erweitert den Vorteil von NVMe auf Datenorganisation für gemeinsam aggregierte Speicher und bietet Hyperskalierungs-, OEM- sowie Unternehmens-IT-Kunden die Möglichkeit, die Speicherkapazität effektiver zu skalieren. [mehr]

Buchbesprechung

Microsoft Office 365

von Markus Widl

Anzeigen