Fachartikel

Seite 2 - Backupvorgänge sicher delegieren

Die Physik ausklammern
Das Backup muss außerdem ähnlich wie bei der Virtualisierung die physische Welt im Idealfall völlig ausklammern und vor dem Anwender verbergen. Dazu sind Automatismen sowohl bei der Erstimplementierung als auch im Betrieb unabdingbar. Für diese Aufgabe bedarf es ausgesprochen komplexer Algorithmen, die die Backupsoft- und -hardware mit Hilfe von Machine Learning und künstlicher Intelligenz durch die Erstkonfiguration leiten.

Die Backupsysteme müssen sich autonom konfigurieren und dabei selbst entscheiden, wieviel Storage- und CPU-Ressourcen sie an welchem genauen Ort in der Umgebung brauchen. Sie müssen dann beispielsweise selbst entscheiden, dass ein Umschalten auf den Backupserver in Hamburg für diese Systeme nicht sinnvoll ist, weil die Latenzzeit dann zu hoch wird.

Einmal im Betrieb, sollten sich die Backupplattformen selbst überwachen, um kritische Zustände zu erkennen und so Ausfallzeiten zu vermeiden. Dazu sollte die Hard- und Software durchgehend Telemetriedaten sammeln und ihren Zustand selbst einschätzen. Dieser wird dann wieder auf einem Dashboard angezeigt und steht dem Servicepersonal zur Verfügung. Auf Grundlage des Scores lassen sich proaktive Maßnahmen ergreifen, wie etwa eine Patchinstallation oder die Durchführung von Vor-Ort-Serviceleistungen.


Bild 2: Eine grafische Oberfläche sollte per Rolle auf bestimmte User zugeschnitten sein und ihnen
den Zugriff auf ihre Systeme und Daten und deren Wiederherstellung geben, um die Backupteams zu entlasten.

Die Backupsysteme im Verbund müssen zudem miteinander sprechen, um sich über ihren aktuellen Zustand zu informieren und gleichzeitig mit künstlicher Intelligenz Trends analysieren, um künftige Aufgaben, Lastspitzen und Engpässe zu identifizieren und entsprechend darauf zu reagieren. Dank der künstlichen Intelligenz entsteht aus der physischen Backupinfrastruktur im Idealfall ein kluger und dynamischer Verbund, der wie bei einem guten Team Stärken und Schwächen eines jeden Mitglieds berücksichtigt und sich Aufgaben dynamisch und agil gegenseitig zuspielen kann. All das muss möglichst autonom passieren, ohne dass menschliche Interaktionen nötig sind.

Sollte der Ernstfall dennoch eintreten und ein Eingriff durch einen IT-Spezialisten nötig sein, so muss dieser sämtliche Systeme über eine einzelne Konsole verwalten können. Das geschieht, wie bereits angedeutet, Idealerweise über ein Dashboard mit einfachem Ampelsystem – rot, gelb und grün. Dort bekommt der Mitarbeiter den nötigen Überblick und kann im besten Fall mit einem Mausklick das System wieder in einen betriebsbereiten Zustand bringen. Zudem sollten klare Handlungsanweisungen erfolgen, welche Komponente auszutauschen ist. So werden in einem derartigen Szenario deutlich weniger hochspezialisierte Experten benötigt, die dann nur noch sehr anspruchsvolle Probleme lösen müssen.
Obligatorische Abdeckung
All die modernen Selbstheilungsprozesse und Autokonfigurationen büßen an Wert ein, wenn das Backupkonzept eine kritische Workload schlicht noch nicht abgedeckt hat. Die meisten Workloads von heute sind sehr dynamisch, verteilt, groß, virtualisiert und werden traditionelle Sicherungen schnell an ihre Grenzen bringen. Wer diese dynamischen Daten zähmen will, sollte Hersteller auf seine Shortlist setzen, die zuerst einmal in der Lage sind, die vielen Workloads überhaupt zu sichern. Dies lässt sich anhand einfacher Checks schnell prüfen. Außerdem ist es mehr als sinnvoll, die bisherige Leistung des Herstellers auf diesem Gebiet zu bewerten:

  • Ist die Abdeckung der Plattform vom Drittanbieter zertifiziert worden?
  • Sind massive Probleme aufgetreten, die der Hersteller mit Patches reparieren musste?
  • Skaliert die Backupplattform noch oder wird sie von der neu angebundenen Datenquelle in die Knie gezwungen?
  • Werden neben den klassischen Legacy-Plattformen und den virtuellen Stacks bereits moderne Workloads wie Mongo DB, Sap HANA, Hadoop oder Open Stack abgedeckt?
  • Wie schnell ist der Backuphersteller darin, neue Workloads zu unterstützen?
  • Arbeitet der Anbieter mit den Cloud-Providern zusammen und liefert zertifizierte Module, um mit ihnen und deren Cloud-Snapshots und Data Movern zu interagieren?
  • Welche Historie hat er auf diesem Gebiet, welche Strategie verfolgt er?
Das Backup ist die letzte Verteidigungslinie und der Plattformsupport muss seriös und höchst zuverlässig arbeiten, damit der Restore gelinkt. Daher zeigen sich in der Praxis auf diesem Gebiet spürbare Qualitätsunterschiede.

Das Backupkonzept muss außerdem massiv skalieren, und zwar horizontal wie vertikal. Denn die Datenmengen werden weiter massiv wachsen und sich geographisch noch stärker auf verschiedenste Infrastrukturen verteilen. Das Backupkonzept muss in der Lage sein, an Orten, an denen sich große Datenmengen konzentrieren, leicht skalierbare und hochperformante Backupsysteme zu liefern, die diese Mengen in den knappen Zeitfenstern wegschreiben können. Und sie müssen leicht in die Fläche skalieren, um den verteilten mehrstufigen Applikationen und ihren Daten folgen zu können. Denn schließlich haben Entfernung und Datenmenge massive Auswirkungen auf die Backupleistung.

Fazit
Diese Abstraktion des Komplexen hin zu einem einfach administrierbaren, selbstheilenden offenen System, das die Verantwortung für die Daten demokratisch auf mehrere Schultern verteilt, leitet auch die wichtigen nächsten Schritte ein, um das Backup und die Wiederherstellung von Daten als Prozess in künftigen "Infrastracture-as-Code"-Modellen definieren zu können. Die physische Welt wird sozusagen ausgeklammert. Backupanbieter arbeitet an genau solchen Automatismen, damit Kunden ihre Daten in heutigen und künftigen Umgebungen zuverlässig wiederherstellen können.


<< Vorherige Seite Seite 2 von 2
6.03.2019/ln/Mathias Wenig, Senior Manager Technology Sales und Digital Transformation Specialists DACH bei Veritas Technologies

Nachrichten

Durchsatzstarker Storage [8.09.2020]

Hewlett Packard Enterprise bringt die sechste Generation seines Einstiegs-Speichersystems "HPE Modular Smart Array" auf den Markt. Diese kommt mit einer neuen Hard- und Software-Architektur, die unter anderem deutlich mehr Leistung als die Vorgängergeneration verspricht. [mehr]

Neue Mini-SSD von Verbatim [7.09.2020]

Verbatim bringt die Store'n'Go-Mini-SSD nach Deutschland. Die sehr kleine, transportable SSD mit schwarzen 3D-Oberflächendesign ist in den Kapazitäten 512 GByte und 1 TByte verfügbar und wiegt 35 Gramm. Dank USB 3.2 Gen 1 Anschluss sind Übertragungsgeschwindigkeiten von bis zu 5 GBit/s möglich. [mehr]

Tipps & Tools

Im Test: EnterpriseDB Postgres [30.07.2020]

In vielen Unternehmen gilt eine Art Datenbank-Oligopol: Entweder kommt Oracle oder MySQL zum Einsatz. EnterpriseDB will das mit seiner gleichnamigen PostgreSQL-Distribution ändern. EnterpriseDB Postgres erwies sich im Test als robuste relationale Datenbank mit vielen Enterprise-Features, die sich hinter Oracle & Co. keineswegs zu verstecken brauchen. Vor allem in Sachen Migration und Kompatibilität konnte uns die Plattform überzeugen und auch das Backup-Tool erhielt unsere Zustimmung. [mehr]

Hochverfügbare SQL-Cluster in der Google-Cloud [23.07.2020]

SQL-Server-Failovercluster-Instanzen stellen die Hochverfügbarkeit von SQL-Servern sicher. Um der Anforderung an gemeinsam nutzbaren Speicher in der Google-Cloud gerecht zu werden, empfiehlt der Cloudprovider Storage Spaces Direct. Die Krux dabei: Die Einrichtung erfordert, dass sich alle VMs und der Speicher im selben Rechenzentrum befinden. Hochverfügbarkeit gewährleistet Google jedoch nur bei standortübergreifenden Konfigurationen. Wie sich dieses Dilemma lösen lässt, verrät unsere Schritt-für-Schritt-Anleitung. [mehr]

Buchbesprechung

Microsoft Office 365

von Markus Widl

Anzeigen