Fachartikel

Business Continuity in Zeiten der Cloud

Der Ausfall von Amazon Web Services vor wenigen Monaten macht deutlich, wie wichtig eine durchdachte Strategie für den Erhalt der Business Continuity in heterogenen Infrastrukturen ist. IT-Administratoren stehen vor der schwierigen Aufgabe, Backup, Recovery und Archivierung von unterschiedlichen Speicherorten zu meistern und im Notfall den Betrieb am Laufen zu halten. Im Fachartikel zeigen wir, welche Überlegungen Sie anstellen müssen, um bei einem Cloud-Ausfall umfassend vorbereitet zu sein.
Auch wenn Cloud-Modelle für mehr Ausfallsicherheit sorgen können, garantieren sie keineswegs eine 100%ige Uptime.
Es ist der Albtraum eines jeden IT-Verantwortlichen: Zentrale Speicher-Infrastrukturen fallen plötzlich aus – Datenverluste drohen, die Business Continuity im Unternehmen ist gefährdet. Um sich vor einem solchen Ausnahmefall zu schützen, verlagern viele Firmen ihre Inhouse-Systeme und Daten in eine hybride oder öffentliche Cloud und vertrauen auf maximale Ausfallsicherheit und Verfügbarkeit. Auch weitere Vorteile der Cloud-Nutzung überzeugen viele Unternehmen: Sie sparen nicht nur hohe Anfangsinvestitionen für die Konzeption, Errichtung und Ausstattung eines eigenen Rechenzentrums inklusive Hardware-Ressourcen und qualifiziertem IT-Personal. Auch profitieren sie in der Regel von regelmäßigen, festen und gut planbaren Kosten sowie von einem Plus an Agilität. So etwa können Unternehmen die Buchung von Cloud-Ressourcen flexibel und passgenau auf die eigenen Anforderungen zuschneiden und bezahlen nur für die Services, die sie tatsächlich nutzen.

Ein weiterer Vorteil: Firmen können die Verantwortung für den IT-Betrieb an einen professionellen, externen Dienstleister abgeben und sich auf den Kern ihrer Geschäftstätigkeit konzentrieren. Aber: Die Sicherheit und Verfügbarkeit von Cloud-Services ist oft trügerisch – Internet-Technologien sind nicht perfekt. Auch Server- und Storage-Infrastrukturen im Web können durch Überlastung oder technische Störungen in die Knie gehen. Der Zugriff auf unternehmenskritische Daten oder Services kann sich dadurch verzögern oder zeitweise sogar ganz unmöglich werden.
Cloud-Ausfall legt halbes Internet lahm
Dass dieses Szenario keine Utopie ist, sondern durchaus Realität werden kann, zeigt der spektakuläre Ausfall des Cloud-Dienstes Amazon Simple Storage Service (S3) von Amazon Web Services im Februar dieses Jahres. Kaum jemand hätte es für möglich gehalten, dass die mehrfach abgesicherte Web-Infrastruktur eines so mächtigen Internet-Konzerns versagen könnte. Rund vier Stunden dauerte die Downtime und legte tatsächlich ganze Teile des Internets lahm.

Insbesondere zahlreiche Online-Händler konnten nicht mehr auf ihre Shop-Ressourcen zugreifen und beklagten hohe Einnahmeverluste. Aber auch beliebte Plattformen wie Etsy, Ebay, Spotify, Shopify, Paypal, Twitter, Netflix oder Soundcloud waren betroffen und über Stunden nicht oder nur unzureichend erreichbar. Und dabei war der peinliche Vorfall nicht etwa einem Terror- oder Hacker-Angriff, sondern schlichtweg einem Fehler eines Mitarbeiters geschuldet.

Das Beispiel zeigt: Unternehmen mit heterogenen Infrastrukturen können sich bei der Inanspruchnahme von Cloud-Diensten keineswegs auf hundertprozentige Sicherheit verlassen. Vielmehr sollten sie auf den Ernstfall vorbereitet sein und ein funktionierendes Konzept zum Erhalt des IT-Betriebs und der Business Continuity in der Schublade haben. Dringend zu empfehlen ist hierfür die Implementierung einer durchdachten und ganzheitlichen Datenmanagement-Strategie. Darin müssen nicht nur wirksame Disaster-Recovery-Maßnahmen enthalten sein. Wichtig ist auch die Möglichkeit, Daten flexibel zwischen verschiedenen Cloud-Umgebungen oder innerhalb einer bestehenden Infrastruktur zu verschieben.

Daten schnell und zielsicher lokalisieren
Die technische Basis einer solchen Strategie ist eine moderne Datenmanagement-Lösung. Sie muss den IT-Verantwortlichen jederzeit auf Knopfdruck einen transparenten und schnellen Überblick darüber liefern, wo genau innerhalb der internen oder externen IT-Umgebung welche Daten gespeichert sind. Denn bei einem Ausfall wichtiger Dienste zählt jede Minute. Aufwändige und zeitfressende Analysen heterogener Insellösungen würden das Unternehmen bares Geld kosten.

Vielmehr muss sofort ersichtlich sein, wie die betreffenden Daten verteilt sind: auf interne Storage-Ressourcen, auf physische oder virtualisierte Server, auf Private-, Public- oder Hybrid-Cloud-Infrastrukturen? Nur so können IT-Administratoren zeitnah und präzise abschätzen, ob und in welchem Maß eine Panne den Geschäftsbetrieb beeinträchtigt und entsprechende Gegenmaßnahmen einleiten.

Eine der größten Herausforderungen beim Management von Unternehmensdaten liegt in deren Sicherung und Wiederherstellung. Diese Prozesse werden durch die (teilweise) Auslagerung in die Cloud zunehmend zu einer komplexen Aufgabe. Das Risiko, geschäftskritische Daten zu verlieren, steigt. So müssen in Backup, Recovery und Archivierung der Daten heterogene Speicherorte, Applikationen und Hypervisoren einbezogen werden, sei es on-premises oder in privaten, öffentlichen sowie hybriden Cloud-Umgebungen. Je mehr virtuelle Maschinen im Einsatz sind, desto anspruchsvoller wird deren lückenlose Erfassung für die Datensicherung.

Backup und Recovery mit nur einem Klick
Genau darin besteht die primäre Aufgabe einer Datenmanagement-Plattform: Sie muss sämtliche physischen, virtuellen sowie Cloud-basierten Speicherorte identifizieren und einheitlich verwalten – und das alles automatisiert, einfach und schnell. Das gilt für die Erstellung von Backups ebenso wie für die Wiederherstellung aller relevanten Daten mit nur einem Klick, um im Ernstfall die Business-Continuity zu gewährleisten.

Eine wichtige Anforderung dabei: Die meisten Unternehmen, die Cloud-Services nutzen, arbeiten mit Lösungen mehrerer Anbieter wie etwa Amazon S3, Microsoft Azure Storage oder Google Cloud Storage. Eine performante Datenmanagement-Plattform wie etwa Commvault muss nun in der Lage sein, auf verschiedene Cloud-Umgebungen verteilte Daten sicher zu identifizieren und zu lokalisieren. Fällt eine Cloud-Anwendung aus, müssen sich die Ressourcen schnell und flexibel auf eine andere Plattform verschieben lassen, um den Geschäftsbetrieb aufrecht zu erhalten und empfindliche Umsatzeinbußen zu vermeiden.

GDPR – Auskunftspflicht für Unternehmen
Eine weitere Herausforderung für das Datenmanagement bringt die neue EU-Datenschutz-Grundverordnung (General Data Protection Regulation, GDPR) mit sich, die 2018 in Kraft treten wird. Ab dann sind Unternehmen mit umfassenden Auskunftspflichten zur Speicherung personenbezogener Daten belegt. Privatleute haben nicht nur Anspruch auf Information, sondern auch auf Berichtigung und sogar Löschung ihrer Daten.

Fazit
Um die beschriebenen Anforderung zu meistern, benötigen Firmen eine umfassende Sicht auf ihre Daten-Infrastruktur. Auch hierbei unterstützt eine ganzheitliche Datenmanagement-Plattform. Damit lassen sich alle im Unternehmen verteilten, digitalen Informationen indexieren, gezielt auffinden und auf Verlangen des Kunden löschen – unabhängig vom aktuellen On- oder Off-Premises-Speicherort.
5.07.2017/ln/Wolfgang Sowarsch, Manager Systems Engineering bei Commvault

Nachrichten

MFP-Serie für hohe Druckvolumina [3.07.2017]

OKI erweitert sein Portfolio um eine neue Reihe an A3-Farb-Multifunktionsdruckern. Die Serie 'ES94x6 MFP' soll bei höchster Druckqualität mit einer besonders flexiblen Papierzufuhr und leistungsstarken Funktionen für die Druck-Weiterverarbeitung punkten. [mehr]

Virtueller VPN-Router [3.07.2017]

LANCOM Systems ergänzt sein VPN-Portfolio um einen Software-basierten Router zum Betrieb in virtualisierten Server-Umgebungen. Mit dem 'LANCOM vRouter' bietet das Unternehmen eine VPN-Router/Gateway-Lösung an, die in klassischen Netzen wie in Cloud-Umgebungen eingesetzt werden kann. [mehr]

Turbo-WLAN dank LTE [9.06.2017]

Hineingeschaut [8.06.2017]

Tipps & Tools

Hotspot für alle Gelegenheiten [21.07.2017]

Moderne Smartphones können über die Tethering-Funktion ihren Internet-Zugang mit anderen WLAN-fähigen Geräten teilen. Das kostenfreie Tool 'OSToto Hotspot' macht das Gleiche mit einem stationären Rechner und konfiguriert diesen als Access Point. Dabei arbeitet das Werkzeug mit verschlüsselten, per Passwort geschützten Verbindungen. Praktisch ist, dass sich für verbundene Geräte maximale Up- und Download-Raten definieren lassen. [mehr]

Vorschau Juli 2017: Mobile IT [26.06.2017]

Eine Vielzahl mobiler Endgeräte sowie immer mehr Internet-of-Things-Devices bevölkern die Unternehmensnetze. Für Administratoren bedeutet dies, einen wahren Zoo an Geräten zu verwalten und abzusichern. In der Juli-Ausgabe des IT-Administrator dreht sich der Schwerpunkt um das Thema 'Mobile IT'. Darin zeigen wir, wie das Mobile Device Management mit Microsoft Enterprise Mobility + Security funktioniert. Daneben erfahren Sie, was der WSO2 IoT Server 3.1.0 in Sachen Mobil- und IoT-Management zu bieten hat. In den Produkttests tritt unter anderem Sophos Mobile 7 zur Absicherung von mobilen Devices an. [mehr]

Sicheres Aufladen [29.04.2017]

Buchbesprechung

Datenschutz-Grundverordnung

von Niko Härting

Anzeigen