Backupvorgänge sicher delegieren

Lesezeit
2 Minuten
Bis jetzt gelesen

Backupvorgänge sicher delegieren

06.03.2019 - 14:00
Veröffentlicht in:
Immer häufiger wollen Anwender ihre Daten und Systeme mit wenigen Klicks selbst wiederherstellen. Dafür führen sie neue Workloads und Plattformen ein und lassen so die Menge der Daten explodieren. Spätestens dann treten die Schwächen althergebrachter Backupkonzepte an die Oberfläche und Unternehmen sind wohl oder übel gezwungen, ihre Prozesse für Sicherung und Wiederherstellung zu modernisieren. Wie der Fachartikel zeigt, muss daher die Verantwortung für die Daten im Idealfall auf mehrere Schultern verteilt werden.
Businessanwender haben in der Cloud gelernt, dass sie IT-Dienste und Ressourcen selbst organisieren können, auch an der IT-Abteilung vorbei. Sie haben erkannt, dass sie auch komplexe Aufgaben über den Browser mit wenigen Klicks erledigen können. Diese – neudeutsch – User-Experience setzen sie längst bei anderen IT-Disziplinen in der Firma voraus. Das gilt auch bei der Wiederherstellung von Daten aus dem Backup.

Einheitliches Backupkonzept für alle Umgebungen
Verantwortliche für das Backup müssen Daten immer öfter auf immer stärker gemischten, verteilten Umgebungen sichern, ohne dafür mehr Personal oder Budget zu bekommen. Eigene Studien und Dark Data Assessments von Veritas bei Firmenkunden mit echten Nutzdaten zeigen, dass die Menge der zu sichernden Daten von Jahr zu Jahr um 49 Prozent wächst. Damit werden die Prognosen der Analysten wie IDC und Gartner von der Praxis bestätigt. Gleichzeitig erwartet niemand, dass die User weniger Daten erschaffen werden, da Digitalisierungsvorhaben bisherige analoge Produkte und Produktionsabläufe mit einer neuen Technikschicht überziehen, deren Sensoren jeden Tag weitere Daten erzeugen.

Unter diesem Druck, den Anwender und Sparzwänge erzeugen, wird die IT ihr Backupkonzept zwangsläufig modernisieren müssen. Wer dann ein individuelles Tool für jede Umgebung einsetzt, auch wenn jedes Einzelne simpel zu nutzen ist, wird in Sachen Betriebskosten immer gegen ein einheitliches modernes Backupmodell verlieren, bei dem ein Backupkonzept alle Plattformen und Infrastrukturen zuverlässig abdeckt. Insbesondere letzter Punkt ist essenziell. Denn spätestens, wenn die ersten Businessdaten in der Cloud korrumpiert wurden oder jemand das Backup einer neuen Plattform verlangt, wird Verantwortlichen schmerzhaft deutlich, dass ihr bisheriges Konzept lückenhaft war. Aber worauf kommt es an, um ein zukunftssicheres Backupkonzept zu schaffen, das Big Data, Multi-Cloud und auch Betriebsmodelle wie "Infrastructure-as-a-Code" souverän beherrscht?

Betrieb radikal vereinfachen
Das Backup muss radikal weniger Arbeit machen, damit Backupverantwortliche auch in komplexen Umgebungen aus lokalen Rechenzentren, Private und Public Clouds die explodierenden Datenmengen zuverlässig sichern und vor allem wiederherstellen können. Dazu ist es notwendig, die bisherigen Teams zu entlasten und Wiederherstellung von Daten und Workloads auf mehrere Schultern im Unternehmen zu verteilen. So können Mitglieder der Big-Data-Teams oder VMware-Umgebungen ihre eigenen Ressourcen, Daten und Plattformen kontrollieren, Daten wiederherstellen oder auf frühere Versionen zurückschalten, ohne die Backupteams fragen zu müssen.

Das Backupwerkzeug muss zu diesem Zweck seine Benutzeroberflächen massiv modernisieren und auf die entsprechenden Business-Owner zurechtschneiden. Ein Role-based-Access-Control-Mechanismus sollte Rechte und Rollen definieren und den Zugriff auf Backupaufgaben, Tasks, Policies und Monitoringdaten maßgeschneidert anpassen. So würde der VMware-Admin nur noch seine Ressourcen, seine Tasks und seine Daten sehen und wiederherstellen können. Der Prozess sollte für die jeweiligen User außerhalb des Backupteams in wenigen Klicks und ohne eigene Schulung abzuwickeln sein.

Der Hersteller des Backupsystems muss seine grafischen Oberflächen massiv modernisieren und an die Bedienkonzepte führender Cloudprovider anlehnen. Schließlich haben weder Netflix noch Amazon oder Ebay die Verbraucher darin geschult, wie ihre Dienste zu nutzen sind. Gesunder Menschenverstand und ein wenig Vorwissen müssen genügen. Das ist der Anspruch, den die Anwender stellen werden. Schließlich werden sie die komplexen Strukturen in Rechenzentren niemals verstehen, da sie vor ihnen verborgen bleiben. Vor allem jüngere User werden daher hohe Erwartungen mitbringen beim Restore ihrer Daten. Schließlich können sie ihr iPhone ja auch per Knopfdruck wiederherstellen und Daten aus der Dropbox zurückholen.

Im alltäglichen Betrieb sollte das Backupkonzept sich auch an übergelagerte Service-Level-Management-Systeme ankoppeln, über die Generalisten alle möglichen IT-Lösungen per Ampelsystem überwachen. Standardisierte Softwareschnittstellen wie RestAPI sind von Entwicklern und großen Lösungsanbietern wie ServiceNow nutzbar, um darüber mit wichtigen Backup-Tasks zu interagieren. Auch über diesen Weg wird die Komplexität der Backupumgebung dank kluger Software vom Anwender verborgen, sodass sich das tägliche Monitoring der Umgebung leichter auf mehrere Teams verteilen lässt.


ln/Mathias Wenig, Senior Manager Technology Sales und Digital Transformation Specialists DACH bei Veritas Technologies

Tags

Ähnliche Beiträge

Drei zentrale Herausforderungen für das Datenmanagement

Daten sind ein unverzichtbarer Vermögenswert für Unternehmen geworden. Für ITAdministratoren bedingt dies, neben fundamentalen Datenmanagement-Anforderungen, Veränderungen in den Bereichen Organisationsstruktur, Kultur und Leadership sowie Rollen und Skills voranzutreiben. Der Fachartikel zählt die drei größten Herausforderungen auf, vor denen Organisationen in Bezug auf Datenmanagement stehen.

Im Test: Power Admin Storage Monitor 9.3

Eine effiziente Planung der Storage-Landschaft und ihrer Verfügbarkeit setzt detailliertes Wissen über Beschaffenheit und Alter der gespeicherten Daten voraus. Power Admin Storage Monitor verspricht, den Datenbestand umfassend zu analysieren, laufend zu überwachen und automatisch auf Ereignisse zu reagieren. Dabei liegt der Schwerpunkt auf Windows, doch das flexible Tool bindet auch andere Speicher im Netzwerk per SNMP an.

All-Flash-Rechenzentrum beim Bio-Großhändler

Seit vielen Jahren arbeiten Storage-Anbieter daran, All-Flash-Systeme so zu konzipieren, dass sie sich nicht nur für Tier-1-Anwendungen, sondern zur Speicherung aller Daten im Rechenzentrum verwenden lassen. Das Ziel, dessen Erreichung vor allem die Anschaffungskosten im Weg standen, lautete: All-Flash-Data Center. Wie sieht es in der Praxis aus? Ein deutsches Handelsunternehmen berichtet erstmals über seine Alltagserfahrungen.