Effizient sichern mit Backup-Appliances

Lesezeit
3 Minuten
Bis jetzt gelesen

Effizient sichern mit Backup-Appliances

27.02.2019 - 14:00
Veröffentlicht in:
Die Anforderungen an die Datensicherheit und Wiederherstellung steigen. Systeme, Anwendungen und Daten in immer komplexeren Umgebungen müssen vollständig, flexibel und einfach wiederhergestellt werden können. Recovery Point Objectives und Recovery Time Objectives sind dabei die Parameter, an denen sich Effizienz und Sicherheit messen lassen. Unser Fachartikel erklärt, warum gerade Backup-Appliances IT-Administratoren dabei helfen, die verschiedensten Anforderungen an die Datensicherung abzubilden.
Laut einer von Arcserve im Herbst 2018 beauftragten und von May Hill Strategies durchgeführten Studie sehen die meisten Befragten vor allem das Problem, dass Sicherung und Datenwiederherstellung von Informationen, Daten und Anwendungen immer komplexer wird. 64 Prozent (in Deutschland: 69 Prozent) von 759 befragten Entscheidern in den Vereinigten Staaten (253), Großbritannien (251) und Deutschland (255) teilen die Meinung, dass in den letzten fünf Jahren der Schutz unternehmenskritischer Daten nicht einfacher geworden ist – allen Anstrengungen, Kosten und Komplexität zu reduzieren, zum Trotz.

47 Prozent machen zusätzliche oder separate Backuplösungen für die Zunahme der Komplexität verantwortlich, 45 Prozent vor allem die Vervielfachung verlangter Wiederherstellungspunkte anstelle eines täglichen Backups. Einen weiteren Grund liefert eine immer noch aktuelle Studie des Dienstleisters für Datenrettung Kroll Ontrack: Von 819 in den USA, Europa und Deutschland 2017 befragten Unternehmen gaben 56 Prozent an, dass sie zwei oder mehr Sicherungswerkzeuge betreiben und verwalten.

Keine Toleranz für Datenverlust
Die Komplexität wächst zudem auch durch die notwendige Sicherung von Daten, Anwendungen und Systemen in multigenerationalen IT-Infrastrukturen: Die Spannbreite dieser Systeme reicht dabei heutzutage von Nicht-x86-Systemen über x86-Systeme bis hin zu Software-as-a-Service (SaaS) oder Infrastructure-as-a-Service (IaaS). Storage-Verantwortliche stehen also vor allem vor der Aufgabe, diese Komplexität zu handhaben und mit zentralem Management verwaltbar zu machen und flexibel für alle Eventualitäten gewappnet zu sein.

Gleichzeitig steigen aber auch die Anforderungen. Denn die Toleranz für Datenverlust sinkt in der 24/7-Wirtschaft von heute. 93 Prozent der Teilnehmer erklärten in der Arcserve-Studie, dass ihr Unternehmen allerhöchstens minimale Datenverluste bei ihren unternehmenskritischen Anwendungen hinnehmen könne – wenn überhaupt. Fast jeder zweite – 49 Prozent – erklärte, ihnen bliebe weniger als eine Stunde, um solche Informationen wiederherzustellen, bevor es zu Umsatzeinbußen kommt. In der Folge sind nur 26 Prozent äußerst überzeugt von ihrer Fähigkeit, Daten, Informationen und Anwendungen wiederherzustellen.

Aufforderung zur Flexibilität
IT-Administratoren stehen vor der Aufgabe, die unterschiedlichsten Daten, Systeme und auch Anwendungen hocheffizient, hochverfügbar, compliant und nach Prioritäten und wirtschaftlichen Anforderungen zu sichern. Dazu brauchen sie vor allem flexible Lösungen, die verschiedene Sicherungs- und Wiederherstellungsszenarien abbilden können. Flexibilität ist allein schon deshalb notwendig, weil die Ursachen eines Datenverlustes oder einer Nichtverfügbarkeit unterschiedlich sind. Ein Hardwaredefekt oder ein Ausfall des Betriebssystems kann etwa durch eine On-Site-Sicherung aufgefangen werden, Naturkatastrophen nur durch eine Off-Site-Sicherung an einem anderen Standort.

Gegen Angriffe auf die Verfügbarkeit durch Verschlüsselungsattacken hilft die 3-2-1-Regel, wonach ein Unternehmen drei Sicherungskopien anlegen soll: Davon sind dann zwei Kopien an unterschiedlichen Orten gesichert, von denen einer offline ist. Das bietet effektiven Schutz, verlangt aber nach flexiblen Lösungen, die die unterschiedlichen Topologien der IT-Infrastruktur unterstützen können. Daraus resultiert die Notwendigkeit, unterschiedliche Plattformen – Tape, Platte, On-Premises, Off-Premises, auf der Appliance und in der Cloud – zu unterstützen. Denn aus den verschiedensten Gründen und je nach Compliance-Vorschriften können Informationen an verschiedenen Orten lagern.

Je nach Anspruch: RPO oder RTO
Auch das Management und seine Anforderungen an die Verfügbarkeit der Daten und Anwendungen verlangen nach hoher Flexibilität. Je nachdem kommt es Unternehmen beim Recovery entweder auf möglichst niedrigen Datenverlust, oder auf eine schnelle Wiederverfügbarkeit an. Beide Ziele zu vereinbaren ist eine große Herausforderung. Letztlich müssen Administratoren aber jede Entscheidung der Priorisierung von Verfügbarkeiten technisch umsetzen. Und diese können sich ändern. Denn die Abwägung der Kosten eines Datenverlustes und der Auswirkungen von Ausfallzeiten erfolgt letztlich abhängig vom Risikoprofil einer jeden Anwendung.

Schon kleine Verluste von Daten in einer Kundendatenbank können etwa fatal sein, weil mit den Kundendaten auch der Kunde verloren geht oder etwa DSGVO-Verpflichtungen sich gar nicht mehr erfüllen lassen. In diesem Fall verlangt das Management ein niedriges Recovery Point Objective – also einen kurzen Zeitraum, der zwischen Datensicherungen liegen darf, um den Normalbetrieb nach dem Absturz eines Systems aufrecht zu erhalten – und damit die möglichst vollständige und aktuelle Rekonstruktion der Daten. Dagegen muss ein Onlineshop schnell wieder funktionieren, um neuen Umsatz zu generieren, während Lücken in der Dokumentation vielleicht eher zu verschmerzen sind. Hier verlangt dann eine niedrige Recovery Time Objective – also die Zeit, die vom Eintritt des Schadens bis zur vollständigen Wiederherstellung des Systems höchstens vergehen darf – die schnelle Wiederverfügbarkeit der Anwendungen.

Die Frage, ob sich die Benchmarks für Wiederherstellung und Verfügbarkeit nach RPO oder RTO richten, ist dabei nicht eindeutig zu beantworten. In der Arcserve-Studie war für jeden vierten der Antwortenden der Recovery Time Objective wichtiger, für 22 Prozent das Recovery Point Objective entscheidend, für die Mehrheit beides gleich wichtig. Beide Ansprüche sind legitim und verlangen ebenfalls nach Flexibilität der IT-Infrastrukturen.


ln/Sven Haubold, Territory Account Director bei Arcserve

Tags

Ähnliche Beiträge

Drei zentrale Herausforderungen für das Datenmanagement

Daten sind ein unverzichtbarer Vermögenswert für Unternehmen geworden. Für ITAdministratoren bedingt dies, neben fundamentalen Datenmanagement-Anforderungen, Veränderungen in den Bereichen Organisationsstruktur, Kultur und Leadership sowie Rollen und Skills voranzutreiben. Der Fachartikel zählt die drei größten Herausforderungen auf, vor denen Organisationen in Bezug auf Datenmanagement stehen.

Im Test: Power Admin Storage Monitor 9.3

Eine effiziente Planung der Storage-Landschaft und ihrer Verfügbarkeit setzt detailliertes Wissen über Beschaffenheit und Alter der gespeicherten Daten voraus. Power Admin Storage Monitor verspricht, den Datenbestand umfassend zu analysieren, laufend zu überwachen und automatisch auf Ereignisse zu reagieren. Dabei liegt der Schwerpunkt auf Windows, doch das flexible Tool bindet auch andere Speicher im Netzwerk per SNMP an.

All-Flash-Rechenzentrum beim Bio-Großhändler

Seit vielen Jahren arbeiten Storage-Anbieter daran, All-Flash-Systeme so zu konzipieren, dass sie sich nicht nur für Tier-1-Anwendungen, sondern zur Speicherung aller Daten im Rechenzentrum verwenden lassen. Das Ziel, dessen Erreichung vor allem die Anschaffungskosten im Weg standen, lautete: All-Flash-Data Center. Wie sieht es in der Praxis aus? Ein deutsches Handelsunternehmen berichtet erstmals über seine Alltagserfahrungen.