Seite 2 - Backupvorgänge sicher delegieren

Lesezeit
3 Minuten
Bis jetzt gelesen

Seite 2 - Backupvorgänge sicher delegieren

06.03.2019 - 14:00
Veröffentlicht in:
Die Physik ausklammern
Das Backup muss außerdem ähnlich wie bei der Virtualisierung die physische Welt im Idealfall völlig ausklammern und vor dem Anwender verbergen. Dazu sind Automatismen sowohl bei der Erstimplementierung als auch im Betrieb unabdingbar. Für diese Aufgabe bedarf es ausgesprochen komplexer Algorithmen, die die Backupsoft- und -hardware mit Hilfe von Machine Learning und künstlicher Intelligenz durch die Erstkonfiguration leiten.

Die Backupsysteme müssen sich autonom konfigurieren und dabei selbst entscheiden, wieviel Storage- und CPU-Ressourcen sie an welchem genauen Ort in der Umgebung brauchen. Sie müssen dann beispielsweise selbst entscheiden, dass ein Umschalten auf den Backupserver in Hamburg für diese Systeme nicht sinnvoll ist, weil die Latenzzeit dann zu hoch wird.

Einmal im Betrieb, sollten sich die Backupplattformen selbst überwachen, um kritische Zustände zu erkennen und so Ausfallzeiten zu vermeiden. Dazu sollte die Hard- und Software durchgehend Telemetriedaten sammeln und ihren Zustand selbst einschätzen. Dieser wird dann wieder auf einem Dashboard angezeigt und steht dem Servicepersonal zur Verfügung. Auf Grundlage des Scores lassen sich proaktive Maßnahmen ergreifen, wie etwa eine Patchinstallation oder die Durchführung von Vor-Ort-Serviceleistungen.


Bild 2: Eine grafische Oberfläche sollte per Rolle auf bestimmte User zugeschnitten sein und ihnen
den Zugriff auf ihre Systeme und Daten und deren Wiederherstellung geben, um die Backupteams zu entlasten.

Die Backupsysteme im Verbund müssen zudem miteinander sprechen, um sich über ihren aktuellen Zustand zu informieren und gleichzeitig mit künstlicher Intelligenz Trends analysieren, um künftige Aufgaben, Lastspitzen und Engpässe zu identifizieren und entsprechend darauf zu reagieren. Dank der künstlichen Intelligenz entsteht aus der physischen Backupinfrastruktur im Idealfall ein kluger und dynamischer Verbund, der wie bei einem guten Team Stärken und Schwächen eines jeden Mitglieds berücksichtigt und sich Aufgaben dynamisch und agil gegenseitig zuspielen kann. All das muss möglichst autonom passieren, ohne dass menschliche Interaktionen nötig sind.

Sollte der Ernstfall dennoch eintreten und ein Eingriff durch einen IT-Spezialisten nötig sein, so muss dieser sämtliche Systeme über eine einzelne Konsole verwalten können. Das geschieht, wie bereits angedeutet, Idealerweise über ein Dashboard mit einfachem Ampelsystem – rot, gelb und grün. Dort bekommt der Mitarbeiter den nötigen Überblick und kann im besten Fall mit einem Mausklick das System wieder in einen betriebsbereiten Zustand bringen. Zudem sollten klare Handlungsanweisungen erfolgen, welche Komponente auszutauschen ist. So werden in einem derartigen Szenario deutlich weniger hochspezialisierte Experten benötigt, die dann nur noch sehr anspruchsvolle Probleme lösen müssen.

Obligatorische Abdeckung
All die modernen Selbstheilungsprozesse und Autokonfigurationen büßen an Wert ein, wenn das Backupkonzept eine kritische Workload schlicht noch nicht abgedeckt hat. Die meisten Workloads von heute sind sehr dynamisch, verteilt, groß, virtualisiert und werden traditionelle Sicherungen schnell an ihre Grenzen bringen. Wer diese dynamischen Daten zähmen will, sollte Hersteller auf seine Shortlist setzen, die zuerst einmal in der Lage sind, die vielen Workloads überhaupt zu sichern. Dies lässt sich anhand einfacher Checks schnell prüfen. Außerdem ist es mehr als sinnvoll, die bisherige Leistung des Herstellers auf diesem Gebiet zu bewerten:

  • Ist die Abdeckung der Plattform vom Drittanbieter zertifiziert worden?
  • Sind massive Probleme aufgetreten, die der Hersteller mit Patches reparieren musste?
  • Skaliert die Backupplattform noch oder wird sie von der neu angebundenen Datenquelle in die Knie gezwungen?
  • Werden neben den klassischen Legacy-Plattformen und den virtuellen Stacks bereits moderne Workloads wie Mongo DB, Sap HANA, Hadoop oder Open Stack abgedeckt?
  • Wie schnell ist der Backuphersteller darin, neue Workloads zu unterstützen?
  • Arbeitet der Anbieter mit den Cloud-Providern zusammen und liefert zertifizierte Module, um mit ihnen und deren Cloud-Snapshots und Data Movern zu interagieren?
  • Welche Historie hat er auf diesem Gebiet, welche Strategie verfolgt er?
Das Backup ist die letzte Verteidigungslinie und der Plattformsupport muss seriös und höchst zuverlässig arbeiten, damit der Restore gelinkt. Daher zeigen sich in der Praxis auf diesem Gebiet spürbare Qualitätsunterschiede.

Das Backupkonzept muss außerdem massiv skalieren, und zwar horizontal wie vertikal. Denn die Datenmengen werden weiter massiv wachsen und sich geographisch noch stärker auf verschiedenste Infrastrukturen verteilen. Das Backupkonzept muss in der Lage sein, an Orten, an denen sich große Datenmengen konzentrieren, leicht skalierbare und hochperformante Backupsysteme zu liefern, die diese Mengen in den knappen Zeitfenstern wegschreiben können. Und sie müssen leicht in die Fläche skalieren, um den verteilten mehrstufigen Applikationen und ihren Daten folgen zu können. Denn schließlich haben Entfernung und Datenmenge massive Auswirkungen auf die Backupleistung.

Fazit
Diese Abstraktion des Komplexen hin zu einem einfach administrierbaren, selbstheilenden offenen System, das die Verantwortung für die Daten demokratisch auf mehrere Schultern verteilt, leitet auch die wichtigen nächsten Schritte ein, um das Backup und die Wiederherstellung von Daten als Prozess in künftigen "Infrastracture-as-Code"-Modellen definieren zu können. Die physische Welt wird sozusagen ausgeklammert. Backupanbieter arbeitet an genau solchen Automatismen, damit Kunden ihre Daten in heutigen und künftigen Umgebungen zuverlässig wiederherstellen können.


<< Vorherige Seite Seite 2 von 2


ln/Mathias Wenig, Senior Manager Technology Sales und Digital Transformation Specialists DACH bei Veritas Technologies

Tags

Ähnliche Beiträge

Drei zentrale Herausforderungen für das Datenmanagement

Daten sind ein unverzichtbarer Vermögenswert für Unternehmen geworden. Für ITAdministratoren bedingt dies, neben fundamentalen Datenmanagement-Anforderungen, Veränderungen in den Bereichen Organisationsstruktur, Kultur und Leadership sowie Rollen und Skills voranzutreiben. Der Fachartikel zählt die drei größten Herausforderungen auf, vor denen Organisationen in Bezug auf Datenmanagement stehen.

Im Test: Power Admin Storage Monitor 9.3

Eine effiziente Planung der Storage-Landschaft und ihrer Verfügbarkeit setzt detailliertes Wissen über Beschaffenheit und Alter der gespeicherten Daten voraus. Power Admin Storage Monitor verspricht, den Datenbestand umfassend zu analysieren, laufend zu überwachen und automatisch auf Ereignisse zu reagieren. Dabei liegt der Schwerpunkt auf Windows, doch das flexible Tool bindet auch andere Speicher im Netzwerk per SNMP an.

All-Flash-Rechenzentrum beim Bio-Großhändler

Seit vielen Jahren arbeiten Storage-Anbieter daran, All-Flash-Systeme so zu konzipieren, dass sie sich nicht nur für Tier-1-Anwendungen, sondern zur Speicherung aller Daten im Rechenzentrum verwenden lassen. Das Ziel, dessen Erreichung vor allem die Anschaffungskosten im Weg standen, lautete: All-Flash-Data Center. Wie sieht es in der Praxis aus? Ein deutsches Handelsunternehmen berichtet erstmals über seine Alltagserfahrungen.