Naturkatastrophen treffen auf Disaster Recovery

Lesezeit
3 Minuten
Bis jetzt gelesen

Naturkatastrophen treffen auf Disaster Recovery

11.05.2022 - 14:00
Veröffentlicht in:
Der Klimawandel macht auch vor Deutschland keinen Halt. Ob Flut, Waldbrand oder Tornado – derartige Naturkatastrophen lassen sich immer öfter beobachten und können für Unternehmen schwerwiegende Folgen nach sich ziehen. Besonders wenn das eigene Rechenzentrum oder das des Cloudanbieters betroffen ist, droht Datenverlust. Wie Disaster-Recovery-Pläne und darauf abgestimmte Backupsysteme bei einem Ernstfall helfen können, erläutert unser Fachartikel.
Spätestens die Flutkatastrophe im Ahrtal hat vielen IT-Experten in Sachen Backup die Augen geöffnet. Denn es zeigt sich, dass der menschgemachte Klimawandel auch in Deutschland und ganz Europa immer stärkere Spuren hinterlässt. Die Folgen der globalen Erderwärmung in Form von Naturphänomenen bekommen dabei allerdings nicht nur die Menschen selbst zu spüren. Auch die technische Infrastruktur kann dabei erheblich in Mitleidenschaft gezogen werden. Ob Waldbrände, Tornados oder eben Überschwemmungen, sie alle kommen in den vergangenen Jahren in Deutschland häufiger vor und gefährden Unternehmen zuweilen beträchtlich.

Dies ist vor allem dann der Fall, wenn die Orte von einer Flut oder einem Brand betroffen sind, an denen Organisationen ihre Daten vorhalten. In der Folge kann unter Umständen sogar die wirtschaftliche Existenz eines Unternehmens bedroht sein. Dies ist nicht nur eine Herausforderung für kleine und mittelgroße Betriebe, die oft nur über ein unzureichendes Datensicherheitskonzept verfügen, sondern kann auch Konzerne in echte Schwierigkeiten bringen, wenn diese sich nicht genug um eine entsprechende Vorkehrung in puncto Notfallwiederherstellung bemühen. Die verantwortlichen Unternehmen sollten daher diesem Thema höchste Priorität einräumen.

Extreme Wetterereignisse nehmen zu
Organisationen sind unentwegt dem Risiko von Datenverlust ausgesetzt, ob dieser nun durch den Ausfall von Hardware, menschliches Fehlverhalten, Datenschutzverstöße, einem Ransomware-Angriff oder einem Extremwetterereignis hervorgerufen wird. Doch gerade der zuletzt genannte Grund findet häufig keine Beachtung. Denn laut dem UN-Büro für Katastrophenvorsorge (UN Office on Disaster Risk Reduction, UNDRR) sind Naturkatastrophen immer öfter zu beobachten: So hat sich ihre Anzahl in den vergangenen 20 Jahren nahezu verdoppelt.

Für gewöhnlich unterschätzen Menschen die Wahrscheinlichkeit von Schadensereignissen, allerdings ist dies im Geschäftsumfeld – und speziell, wenn es um die Sicherheit von Systemen, Anwendungen und Daten geht – ein Spiel mit dem Feuer. Denn hier ist es umso wichtiger, auch für das schlimmste Szenario gerüstet zu sein. Klar ist jedoch auch, dass niemandem damit geholfen ist, das eigene Rechenzentrum zu überfluten, um lediglich festzustellen, wie sich eine Naturkatastrophe auswirken könnte. Anstelle dessen gibt es jedoch einige sinnvolle Punkte, die die Verantwortlichen abklären sollten, um zu gewährleisten, dass ihre Pläne für den Notfall auch greifen und diese sich auch umsetzen lassen.

Geplant mit dem Fall der Fälle umgehen
Um für den Ernstfall gerüstet zu sein, gilt es zunächst, einen Disaster-Recovery-Plan zu erstellen. In einem ersten Schritt müssen die Verantwortlichen hierzu eine Bestandsaufnahme des Ist-Zustandes der Unternehmens-IT durchführen. Dies umfasst alle IT-Ressourcen der Organisation – einschließlich aller genutzten Cloudressourcen. Damit im Notfall eine schnelle Reaktion und Analyse erfolgen kann, muss zuerst eine Übersicht aller Server, Storage-Systeme, Anwendungen, Daten, Netzwerk-Switches, Access-Points und Netzwerkgeräte erstellt werden. Diese Übersicht muss zudem Informationen zu den jeweiligen Anbindungen, dem Ort und etwaigen Abhängigkeiten der jeweiligen Komponenten umfassen.

Erst danach erfolgt die Analyse der Komponenten in Bezug auf ihr jeweiliges Risiko im Falle einer Störung. Das Risiko wird sodann anhand der entsprechenden Wahrscheinlichkeit für einen Ausfall bewertet. Auch Daten und Anwendungen sind in die Risikoanalyse miteinzubeziehen. So lässt sich abschätzen, welche Teile davon als kritisch für den Geschäftsbetrieb einzustufen sind. Allerdings bedarf es hierzu einer engen Abstimmung der IT-Teams mit den betroffenen Abteilungen und der Geschäftsführung. Denn nicht alle Daten und Anwendungen sind für jede Abteilung in gleichem Maße von Bedeutung, und nur die Geschäftsleitung ist in der Lage, die Prioritäten für den Geschäftsbetrieb festzulegen.

Im Fall der Fälle muss der Notfallplan darauf ausgerichtet sein, den Geschäftsbetrieb aufrechtzuerhalten oder schnellstmöglich wieder zu gewährleisten. Folglich müssen darin auch vergleichsweise unwahrscheinliche Szenarien für den Datenverlust abgedeckt sein – dies betrifft auch die Infrastrukturen von Drittanbietern oder Zulieferern. Ist der Worst Case einmal eingetreten, ist ein umfassender Notfallplan Gold wert, da er den Betrieb von Anwendungen und Services sicherstellt beziehungsweise die Ausfallzeiten auf ein Minimum begrenzt.

Um Anwendungen und Systeme entsprechend zu gewichten, empfiehlt es sich, die Recovery Time Objective (RTO) als Kennzahl heranzuziehen. Sie definiert sich anhand der Kosten, die ein möglicher Ausfall des jeweiligen Systems in einer festgelegten Zeitspanne nach sich ziehen würde. Die Kennzahl gibt Auskunft darüber, welche Sicherungsmethode gewählt werden sollte, um zu gewährleisten, dass nach einer Störung die kritischsten Systeme mit besonders geringen Wiederherstellungszeiten ihren Betrieb wieder am schnellsten wieder aufnehmen können.

Darüber hinaus gibt es in Sachen Disaster Recovery noch eine weitere wichtige Kennzahl zu beachten, die sogenannte Recovery Point Objective (RPO). Sie bezeichnet den größtmöglichen Datenverlust, der noch in einem akzeptablen Rahmen liegt, sollte ein Schadensfall eintreten. Existiert hier eine hohe Toleranz, so ist eine Datensicherung lediglich alle paar Stunden vonnöten. Werden die entsprechenden Daten allerdings als kritische eingestuft – wie im Fall von Bestelldaten im E-Commerce–, so liegt die RPO bei weniger als einer Minute. Auch zu berücksichtigen bei dieser Kennzahl ist die Aktualisierungsrate der Daten in einer zuvor festgelegten Zeitspanne.



Seite 1 von 2 Nächste Seite >>


ln/Christian Keil, Director Germany Sales Engineering bei Commvault

Tags

Ähnliche Beiträge

Zero Trust richtig umsetzen

Zero Trust ist mittlerweile state of the art in Sachen Sicherheit. Was dabei häufig unter den Tisch fällt: Ganzheitliche Sichtbarkeit – und zwar bis auf Netzwerkebene – ist die Grundvoraussetzung für das Konzept. Ausgerechnet hier scheitern bereits viele Unternehmen. Die Folge: Blind Spots nehmen ihnen die Sicht. Erfahren Sie im Fachbeitrag, warum Deep Observability bei einer Zero-Trust-Strategie nicht fehlen darf.

Im Test: sayTEC sayTRUST VPSC

Mit VPNs stellen Administratoren den Zugriff für mobile User zur Verfügung. Jedoch ist es nicht immer gewollt, dass die Endgeräte auch zum Teil des Netzwerks werden. Zudem bringen klassische VPNs nach wie vor eine Reihe von Unzulänglichkeiten mit sich, etwa in der Verwaltung oder bei der Performance. Mit sayTECs sayTRUST VPSC steht ein anderer Weg des geschützten Zugangs offen, der im Test überzeugte.

Richtig auf NIS-2 vorbereiten

Bis zum 17. Oktober 2024 müssen zahlreiche Unternehmen ihre Informations- und Cybersicherheitsstrategien anpassen. Dazu gehören regelmäßige Penetrationstests und Meldesysteme für Cybervorfälle. Außerdem sind umfassende Risikobewertungen erforderlich. Die NIS-2-Richtlinie stellt Unternehmen vor Herausforderungen, bietet aber auch Chancen. Sie kann Organisationen sicherer und widerstandsfähiger machen.