Fachartikel

Business Continuity in Zeiten der Cloud

Der Ausfall von Amazon Web Services vor wenigen Monaten macht deutlich, wie wichtig eine durchdachte Strategie für den Erhalt der Business Continuity in heterogenen Infrastrukturen ist. IT-Administratoren stehen vor der schwierigen Aufgabe, Backup, Recovery und Archivierung von unterschiedlichen Speicherorten zu meistern und im Notfall den Betrieb am Laufen zu halten. Im Fachartikel zeigen wir, welche Überlegungen Sie anstellen müssen, um bei einem Cloud-Ausfall umfassend vorbereitet zu sein.
Auch wenn Cloud-Modelle für mehr Ausfallsicherheit sorgen können, garantieren sie keineswegs eine 100%ige Uptime.
Es ist der Albtraum eines jeden IT-Verantwortlichen: Zentrale Speicher-Infrastrukturen fallen plötzlich aus – Datenverluste drohen, die Business Continuity im Unternehmen ist gefährdet. Um sich vor einem solchen Ausnahmefall zu schützen, verlagern viele Firmen ihre Inhouse-Systeme und Daten in eine hybride oder öffentliche Cloud und vertrauen auf maximale Ausfallsicherheit und Verfügbarkeit. Auch weitere Vorteile der Cloud-Nutzung überzeugen viele Unternehmen: Sie sparen nicht nur hohe Anfangsinvestitionen für die Konzeption, Errichtung und Ausstattung eines eigenen Rechenzentrums inklusive Hardware-Ressourcen und qualifiziertem IT-Personal. Auch profitieren sie in der Regel von regelmäßigen, festen und gut planbaren Kosten sowie von einem Plus an Agilität. So etwa können Unternehmen die Buchung von Cloud-Ressourcen flexibel und passgenau auf die eigenen Anforderungen zuschneiden und bezahlen nur für die Services, die sie tatsächlich nutzen.

Ein weiterer Vorteil: Firmen können die Verantwortung für den IT-Betrieb an einen professionellen, externen Dienstleister abgeben und sich auf den Kern ihrer Geschäftstätigkeit konzentrieren. Aber: Die Sicherheit und Verfügbarkeit von Cloud-Services ist oft trügerisch – Internet-Technologien sind nicht perfekt. Auch Server- und Storage-Infrastrukturen im Web können durch Überlastung oder technische Störungen in die Knie gehen. Der Zugriff auf unternehmenskritische Daten oder Services kann sich dadurch verzögern oder zeitweise sogar ganz unmöglich werden.
Cloud-Ausfall legt halbes Internet lahm
Dass dieses Szenario keine Utopie ist, sondern durchaus Realität werden kann, zeigt der spektakuläre Ausfall des Cloud-Dienstes Amazon Simple Storage Service (S3) von Amazon Web Services im Februar dieses Jahres. Kaum jemand hätte es für möglich gehalten, dass die mehrfach abgesicherte Web-Infrastruktur eines so mächtigen Internet-Konzerns versagen könnte. Rund vier Stunden dauerte die Downtime und legte tatsächlich ganze Teile des Internets lahm.

Insbesondere zahlreiche Online-Händler konnten nicht mehr auf ihre Shop-Ressourcen zugreifen und beklagten hohe Einnahmeverluste. Aber auch beliebte Plattformen wie Etsy, Ebay, Spotify, Shopify, Paypal, Twitter, Netflix oder Soundcloud waren betroffen und über Stunden nicht oder nur unzureichend erreichbar. Und dabei war der peinliche Vorfall nicht etwa einem Terror- oder Hacker-Angriff, sondern schlichtweg einem Fehler eines Mitarbeiters geschuldet.

Das Beispiel zeigt: Unternehmen mit heterogenen Infrastrukturen können sich bei der Inanspruchnahme von Cloud-Diensten keineswegs auf hundertprozentige Sicherheit verlassen. Vielmehr sollten sie auf den Ernstfall vorbereitet sein und ein funktionierendes Konzept zum Erhalt des IT-Betriebs und der Business Continuity in der Schublade haben. Dringend zu empfehlen ist hierfür die Implementierung einer durchdachten und ganzheitlichen Datenmanagement-Strategie. Darin müssen nicht nur wirksame Disaster-Recovery-Maßnahmen enthalten sein. Wichtig ist auch die Möglichkeit, Daten flexibel zwischen verschiedenen Cloud-Umgebungen oder innerhalb einer bestehenden Infrastruktur zu verschieben.

Daten schnell und zielsicher lokalisieren
Die technische Basis einer solchen Strategie ist eine moderne Datenmanagement-Lösung. Sie muss den IT-Verantwortlichen jederzeit auf Knopfdruck einen transparenten und schnellen Überblick darüber liefern, wo genau innerhalb der internen oder externen IT-Umgebung welche Daten gespeichert sind. Denn bei einem Ausfall wichtiger Dienste zählt jede Minute. Aufwändige und zeitfressende Analysen heterogener Insellösungen würden das Unternehmen bares Geld kosten.

Vielmehr muss sofort ersichtlich sein, wie die betreffenden Daten verteilt sind: auf interne Storage-Ressourcen, auf physische oder virtualisierte Server, auf Private-, Public- oder Hybrid-Cloud-Infrastrukturen? Nur so können IT-Administratoren zeitnah und präzise abschätzen, ob und in welchem Maß eine Panne den Geschäftsbetrieb beeinträchtigt und entsprechende Gegenmaßnahmen einleiten.

Eine der größten Herausforderungen beim Management von Unternehmensdaten liegt in deren Sicherung und Wiederherstellung. Diese Prozesse werden durch die (teilweise) Auslagerung in die Cloud zunehmend zu einer komplexen Aufgabe. Das Risiko, geschäftskritische Daten zu verlieren, steigt. So müssen in Backup, Recovery und Archivierung der Daten heterogene Speicherorte, Applikationen und Hypervisoren einbezogen werden, sei es on-premises oder in privaten, öffentlichen sowie hybriden Cloud-Umgebungen. Je mehr virtuelle Maschinen im Einsatz sind, desto anspruchsvoller wird deren lückenlose Erfassung für die Datensicherung.

Backup und Recovery mit nur einem Klick
Genau darin besteht die primäre Aufgabe einer Datenmanagement-Plattform: Sie muss sämtliche physischen, virtuellen sowie Cloud-basierten Speicherorte identifizieren und einheitlich verwalten – und das alles automatisiert, einfach und schnell. Das gilt für die Erstellung von Backups ebenso wie für die Wiederherstellung aller relevanten Daten mit nur einem Klick, um im Ernstfall die Business-Continuity zu gewährleisten.

Eine wichtige Anforderung dabei: Die meisten Unternehmen, die Cloud-Services nutzen, arbeiten mit Lösungen mehrerer Anbieter wie etwa Amazon S3, Microsoft Azure Storage oder Google Cloud Storage. Eine performante Datenmanagement-Plattform wie etwa Commvault muss nun in der Lage sein, auf verschiedene Cloud-Umgebungen verteilte Daten sicher zu identifizieren und zu lokalisieren. Fällt eine Cloud-Anwendung aus, müssen sich die Ressourcen schnell und flexibel auf eine andere Plattform verschieben lassen, um den Geschäftsbetrieb aufrecht zu erhalten und empfindliche Umsatzeinbußen zu vermeiden.

GDPR – Auskunftspflicht für Unternehmen
Eine weitere Herausforderung für das Datenmanagement bringt die neue EU-Datenschutz-Grundverordnung (General Data Protection Regulation, GDPR) mit sich, die 2018 in Kraft treten wird. Ab dann sind Unternehmen mit umfassenden Auskunftspflichten zur Speicherung personenbezogener Daten belegt. Privatleute haben nicht nur Anspruch auf Information, sondern auch auf Berichtigung und sogar Löschung ihrer Daten.

Fazit
Um die beschriebenen Anforderung zu meistern, benötigen Firmen eine umfassende Sicht auf ihre Daten-Infrastruktur. Auch hierbei unterstützt eine ganzheitliche Datenmanagement-Plattform. Damit lassen sich alle im Unternehmen verteilten, digitalen Informationen indexieren, gezielt auffinden und auf Verlangen des Kunden löschen – unabhängig vom aktuellen On- oder Off-Premises-Speicherort.
5.07.2017/ln/Wolfgang Sowarsch, Manager Systems Engineering bei Commvault

Nachrichten

Unter Strom [7.01.2020]

Socomec präsentiert seine ausfallsichere USV-Lösung MODULYS XL. Mit standardisierten Bausteinen lassen sich bei dem modular aufgebauten Notstromsystem verschiedenste Konfigurationen für eine unterbrechungsfreie Stromversorgung (USV) in Datenzentren herstellen. Die einzelnen Blöcke liefern jeweils 200 Kilowatt Leistung und sind bis zu 1200 Kilowatt skalierbar. [mehr]

Switch für datenintensive Netzwerke [16.12.2019]

LANCOM Systems baut mit dem GS-3528XP sein Switch-Portfolio weiter aus. Der Multi-Gigabit-Access-Switch unterstützt an zwölf seiner Ports 2,5-GBit-Ethernet und will so eine Basis für den Betrieb von Wi-Fi 6 Access-Points und anderen Netzwerkkomponenten mit hohen Performance-Anforderungen bilden. [mehr]

Tipps & Tools

Vorschau Januar 2020: LAN, WAN & SDN [16.12.2019]

Die Netzwerkinfrastruktur gehört wahrscheinlich nicht zu den heißesten Themen im IT-Bereich, nimmt jedoch einen enormen Stellenwert für Administratoren ein. Denn ohne stabile Grundlage kommt es schnell zu Engpässen im Datendurchsatz und Ausfällen von Applikationen. IT-Administrator startet das neue Jahr deshalb mit dem Schwerpunkt "LAN, WAN & SDN". Darin zeigen wir unter anderem, wie Sie Netzwerkgeräte mit rConfig, Jinja2 und Netdisco verwalten. Außerdem lesen Sie, wie Sie Anmeldungen mit dem Microsoft Network Policy Server unter Kontrolle behalten. In den Tests werfen wir einen Blick auf die NetBrain Integrated Edition 8.0. [mehr]

Vorschau Dezember 2019: Rechenzentrum & Infrastruktur [25.11.2019]

Das Rechenzentrum und die IT-Infrastruktur im Unternehmen bilden die Grundlage für einen erfolgreichen IT-Betrieb. In der Dezember-Ausgabe beleuchtet IT-Administrator das Management und die Automatisierung im Rechenzentrum. So zeigen wir, wie die Netzwerkverwaltung mit Netbox funktioniert und was das neue Wi-Fi 6 für Firmen zu bieten hat. Außerdem lesen Sie im Dezember-Heft, wie die Netzwerkinventarisierung mit der PowerShell funktioniert und was es bei der Verwaltung einer Hyper-V-Umgebung mit dem SCVMM 2019 zu beachten gilt. In den Produkttests beweist unter anderem AnyDesk Enterprise sein Können. [mehr]

Buchbesprechung

Handbuch Online-Shop

von Alexander Steireif, Rouven Rieker, Markus Bückle

Anzeigen