Fachartikel

Business Continuity in Zeiten der Cloud

Der Ausfall von Amazon Web Services vor wenigen Monaten macht deutlich, wie wichtig eine durchdachte Strategie für den Erhalt der Business Continuity in heterogenen Infrastrukturen ist. IT-Administratoren stehen vor der schwierigen Aufgabe, Backup, Recovery und Archivierung von unterschiedlichen Speicherorten zu meistern und im Notfall den Betrieb am Laufen zu halten. Im Fachartikel zeigen wir, welche Überlegungen Sie anstellen müssen, um bei einem Cloud-Ausfall umfassend vorbereitet zu sein.
Auch wenn Cloud-Modelle für mehr Ausfallsicherheit sorgen können, garantieren sie keineswegs eine 100%ige Uptime.
Es ist der Albtraum eines jeden IT-Verantwortlichen: Zentrale Speicher-Infrastrukturen fallen plötzlich aus – Datenverluste drohen, die Business Continuity im Unternehmen ist gefährdet. Um sich vor einem solchen Ausnahmefall zu schützen, verlagern viele Firmen ihre Inhouse-Systeme und Daten in eine hybride oder öffentliche Cloud und vertrauen auf maximale Ausfallsicherheit und Verfügbarkeit. Auch weitere Vorteile der Cloud-Nutzung überzeugen viele Unternehmen: Sie sparen nicht nur hohe Anfangsinvestitionen für die Konzeption, Errichtung und Ausstattung eines eigenen Rechenzentrums inklusive Hardware-Ressourcen und qualifiziertem IT-Personal. Auch profitieren sie in der Regel von regelmäßigen, festen und gut planbaren Kosten sowie von einem Plus an Agilität. So etwa können Unternehmen die Buchung von Cloud-Ressourcen flexibel und passgenau auf die eigenen Anforderungen zuschneiden und bezahlen nur für die Services, die sie tatsächlich nutzen.

Ein weiterer Vorteil: Firmen können die Verantwortung für den IT-Betrieb an einen professionellen, externen Dienstleister abgeben und sich auf den Kern ihrer Geschäftstätigkeit konzentrieren. Aber: Die Sicherheit und Verfügbarkeit von Cloud-Services ist oft trügerisch – Internet-Technologien sind nicht perfekt. Auch Server- und Storage-Infrastrukturen im Web können durch Überlastung oder technische Störungen in die Knie gehen. Der Zugriff auf unternehmenskritische Daten oder Services kann sich dadurch verzögern oder zeitweise sogar ganz unmöglich werden.
Cloud-Ausfall legt halbes Internet lahm
Dass dieses Szenario keine Utopie ist, sondern durchaus Realität werden kann, zeigt der spektakuläre Ausfall des Cloud-Dienstes Amazon Simple Storage Service (S3) von Amazon Web Services im Februar dieses Jahres. Kaum jemand hätte es für möglich gehalten, dass die mehrfach abgesicherte Web-Infrastruktur eines so mächtigen Internet-Konzerns versagen könnte. Rund vier Stunden dauerte die Downtime und legte tatsächlich ganze Teile des Internets lahm.

Insbesondere zahlreiche Online-Händler konnten nicht mehr auf ihre Shop-Ressourcen zugreifen und beklagten hohe Einnahmeverluste. Aber auch beliebte Plattformen wie Etsy, Ebay, Spotify, Shopify, Paypal, Twitter, Netflix oder Soundcloud waren betroffen und über Stunden nicht oder nur unzureichend erreichbar. Und dabei war der peinliche Vorfall nicht etwa einem Terror- oder Hacker-Angriff, sondern schlichtweg einem Fehler eines Mitarbeiters geschuldet.

Das Beispiel zeigt: Unternehmen mit heterogenen Infrastrukturen können sich bei der Inanspruchnahme von Cloud-Diensten keineswegs auf hundertprozentige Sicherheit verlassen. Vielmehr sollten sie auf den Ernstfall vorbereitet sein und ein funktionierendes Konzept zum Erhalt des IT-Betriebs und der Business Continuity in der Schublade haben. Dringend zu empfehlen ist hierfür die Implementierung einer durchdachten und ganzheitlichen Datenmanagement-Strategie. Darin müssen nicht nur wirksame Disaster-Recovery-Maßnahmen enthalten sein. Wichtig ist auch die Möglichkeit, Daten flexibel zwischen verschiedenen Cloud-Umgebungen oder innerhalb einer bestehenden Infrastruktur zu verschieben.

Daten schnell und zielsicher lokalisieren
Die technische Basis einer solchen Strategie ist eine moderne Datenmanagement-Lösung. Sie muss den IT-Verantwortlichen jederzeit auf Knopfdruck einen transparenten und schnellen Überblick darüber liefern, wo genau innerhalb der internen oder externen IT-Umgebung welche Daten gespeichert sind. Denn bei einem Ausfall wichtiger Dienste zählt jede Minute. Aufwändige und zeitfressende Analysen heterogener Insellösungen würden das Unternehmen bares Geld kosten.

Vielmehr muss sofort ersichtlich sein, wie die betreffenden Daten verteilt sind: auf interne Storage-Ressourcen, auf physische oder virtualisierte Server, auf Private-, Public- oder Hybrid-Cloud-Infrastrukturen? Nur so können IT-Administratoren zeitnah und präzise abschätzen, ob und in welchem Maß eine Panne den Geschäftsbetrieb beeinträchtigt und entsprechende Gegenmaßnahmen einleiten.

Eine der größten Herausforderungen beim Management von Unternehmensdaten liegt in deren Sicherung und Wiederherstellung. Diese Prozesse werden durch die (teilweise) Auslagerung in die Cloud zunehmend zu einer komplexen Aufgabe. Das Risiko, geschäftskritische Daten zu verlieren, steigt. So müssen in Backup, Recovery und Archivierung der Daten heterogene Speicherorte, Applikationen und Hypervisoren einbezogen werden, sei es on-premises oder in privaten, öffentlichen sowie hybriden Cloud-Umgebungen. Je mehr virtuelle Maschinen im Einsatz sind, desto anspruchsvoller wird deren lückenlose Erfassung für die Datensicherung.

Backup und Recovery mit nur einem Klick
Genau darin besteht die primäre Aufgabe einer Datenmanagement-Plattform: Sie muss sämtliche physischen, virtuellen sowie Cloud-basierten Speicherorte identifizieren und einheitlich verwalten – und das alles automatisiert, einfach und schnell. Das gilt für die Erstellung von Backups ebenso wie für die Wiederherstellung aller relevanten Daten mit nur einem Klick, um im Ernstfall die Business-Continuity zu gewährleisten.

Eine wichtige Anforderung dabei: Die meisten Unternehmen, die Cloud-Services nutzen, arbeiten mit Lösungen mehrerer Anbieter wie etwa Amazon S3, Microsoft Azure Storage oder Google Cloud Storage. Eine performante Datenmanagement-Plattform wie etwa Commvault muss nun in der Lage sein, auf verschiedene Cloud-Umgebungen verteilte Daten sicher zu identifizieren und zu lokalisieren. Fällt eine Cloud-Anwendung aus, müssen sich die Ressourcen schnell und flexibel auf eine andere Plattform verschieben lassen, um den Geschäftsbetrieb aufrecht zu erhalten und empfindliche Umsatzeinbußen zu vermeiden.

GDPR – Auskunftspflicht für Unternehmen
Eine weitere Herausforderung für das Datenmanagement bringt die neue EU-Datenschutz-Grundverordnung (General Data Protection Regulation, GDPR) mit sich, die 2018 in Kraft treten wird. Ab dann sind Unternehmen mit umfassenden Auskunftspflichten zur Speicherung personenbezogener Daten belegt. Privatleute haben nicht nur Anspruch auf Information, sondern auch auf Berichtigung und sogar Löschung ihrer Daten.

Fazit
Um die beschriebenen Anforderung zu meistern, benötigen Firmen eine umfassende Sicht auf ihre Daten-Infrastruktur. Auch hierbei unterstützt eine ganzheitliche Datenmanagement-Plattform. Damit lassen sich alle im Unternehmen verteilten, digitalen Informationen indexieren, gezielt auffinden und auf Verlangen des Kunden löschen – unabhängig vom aktuellen On- oder Off-Premises-Speicherort.
5.07.2017/ln/Wolfgang Sowarsch, Manager Systems Engineering bei Commvault

Nachrichten

Funk für zwei OKI-Drucker [4.04.2018]

OKI rüstet zwei seiner A4-High-Definition-Farbdrucker mit WLAN aus und will damit die Effizienz von Inhouse-Druckprozessen steigern. Die beiden Modelle 'C332dnw' und 'MC363dnw' sind ab sofort standardmäßig mit einer drahtlosen Verbindung verfügbar. [mehr]

Datenfalke [4.04.2018]

Mit dem "Nighthawk M1" (MR1100) stellt Netgear den ersten Mobile-Hotspot-Router für Gigabit Class LTE, der eine maximale Download-Geschwindigkeit von 1 GBit/s erreicht, vor. Der Router stellt eine sichere LTE-Verbindung für die gemeinsame Nutzung von bis zu 20 WLAN-Geräten im Dual-Band (mit 2,4 GHz und 5 GHz) bereit. [mehr]

Tipps & Tools

Vorschau April 2018: Small Business IT [26.03.2018]

Kleine Unternehmen haben ähnliche Anforderungen an die IT wie Konzerne, jedoch weniger Budget und Personal. Wie sie trotzdem eine zuverlässige und leistungsfähige IT-Umgebung aufbauen, zeigen wir in der April-Ausgabe des IT-Administrator. Ein Weg, um Ressourcen frei zu machen und für mehr Stabilität zu sorgen, ist die Automatisierung sich wiederholender Aufgaben. Wir verdeutlichen anhand von Beispielen, wie die PowerShell kleinen Firmen dabei unter die Arme greifen kann. Daneben werfen wir einen Blick auf den Einsatz von Office 365 und Amazon Web Services in KMUs. Nicht zuletzt beleuchten wir, welche Mobilstrategien sich für Firmen in diesem Segment anbieten. [mehr]

WLAN-Controller von Cisco mit PRTG monitoren [21.12.2017]

In vielen Unternehmen kommen im drahtlosen Netzwerk unter anderem WLAN-Controller von Cisco zum Einsatz. Wer außerdem den PRTG Network Monitor zur Netzwerküberwachung nutzt, hat das Problem, dass es keine fertigen Sensoren für die Cisco-Controller gibt und das Aufsetzen eigener Sensoren anhand der Cisco-MIBs nicht gerade trivial ist. Es existiert jedoch eine einfachere Möglichkeit, Cisco-Appliances mit PRTG zu überwachen. [mehr]

Buchbesprechung

Anzeigen