Fachartikel

Business Continuity in Zeiten der Cloud

Der Ausfall von Amazon Web Services vor wenigen Monaten macht deutlich, wie wichtig eine durchdachte Strategie für den Erhalt der Business Continuity in heterogenen Infrastrukturen ist. IT-Administratoren stehen vor der schwierigen Aufgabe, Backup, Recovery und Archivierung von unterschiedlichen Speicherorten zu meistern und im Notfall den Betrieb am Laufen zu halten. Im Fachartikel zeigen wir, welche Überlegungen Sie anstellen müssen, um bei einem Cloud-Ausfall umfassend vorbereitet zu sein.
Auch wenn Cloud-Modelle für mehr Ausfallsicherheit sorgen können, garantieren sie keineswegs eine 100%ige Uptime.
Es ist der Albtraum eines jeden IT-Verantwortlichen: Zentrale Speicher-Infrastrukturen fallen plötzlich aus – Datenverluste drohen, die Business Continuity im Unternehmen ist gefährdet. Um sich vor einem solchen Ausnahmefall zu schützen, verlagern viele Firmen ihre Inhouse-Systeme und Daten in eine hybride oder öffentliche Cloud und vertrauen auf maximale Ausfallsicherheit und Verfügbarkeit. Auch weitere Vorteile der Cloud-Nutzung überzeugen viele Unternehmen: Sie sparen nicht nur hohe Anfangsinvestitionen für die Konzeption, Errichtung und Ausstattung eines eigenen Rechenzentrums inklusive Hardware-Ressourcen und qualifiziertem IT-Personal. Auch profitieren sie in der Regel von regelmäßigen, festen und gut planbaren Kosten sowie von einem Plus an Agilität. So etwa können Unternehmen die Buchung von Cloud-Ressourcen flexibel und passgenau auf die eigenen Anforderungen zuschneiden und bezahlen nur für die Services, die sie tatsächlich nutzen.

Ein weiterer Vorteil: Firmen können die Verantwortung für den IT-Betrieb an einen professionellen, externen Dienstleister abgeben und sich auf den Kern ihrer Geschäftstätigkeit konzentrieren. Aber: Die Sicherheit und Verfügbarkeit von Cloud-Services ist oft trügerisch – Internet-Technologien sind nicht perfekt. Auch Server- und Storage-Infrastrukturen im Web können durch Überlastung oder technische Störungen in die Knie gehen. Der Zugriff auf unternehmenskritische Daten oder Services kann sich dadurch verzögern oder zeitweise sogar ganz unmöglich werden.
Cloud-Ausfall legt halbes Internet lahm
Dass dieses Szenario keine Utopie ist, sondern durchaus Realität werden kann, zeigt der spektakuläre Ausfall des Cloud-Dienstes Amazon Simple Storage Service (S3) von Amazon Web Services im Februar dieses Jahres. Kaum jemand hätte es für möglich gehalten, dass die mehrfach abgesicherte Web-Infrastruktur eines so mächtigen Internet-Konzerns versagen könnte. Rund vier Stunden dauerte die Downtime und legte tatsächlich ganze Teile des Internets lahm.

Insbesondere zahlreiche Online-Händler konnten nicht mehr auf ihre Shop-Ressourcen zugreifen und beklagten hohe Einnahmeverluste. Aber auch beliebte Plattformen wie Etsy, Ebay, Spotify, Shopify, Paypal, Twitter, Netflix oder Soundcloud waren betroffen und über Stunden nicht oder nur unzureichend erreichbar. Und dabei war der peinliche Vorfall nicht etwa einem Terror- oder Hacker-Angriff, sondern schlichtweg einem Fehler eines Mitarbeiters geschuldet.

Das Beispiel zeigt: Unternehmen mit heterogenen Infrastrukturen können sich bei der Inanspruchnahme von Cloud-Diensten keineswegs auf hundertprozentige Sicherheit verlassen. Vielmehr sollten sie auf den Ernstfall vorbereitet sein und ein funktionierendes Konzept zum Erhalt des IT-Betriebs und der Business Continuity in der Schublade haben. Dringend zu empfehlen ist hierfür die Implementierung einer durchdachten und ganzheitlichen Datenmanagement-Strategie. Darin müssen nicht nur wirksame Disaster-Recovery-Maßnahmen enthalten sein. Wichtig ist auch die Möglichkeit, Daten flexibel zwischen verschiedenen Cloud-Umgebungen oder innerhalb einer bestehenden Infrastruktur zu verschieben.

Daten schnell und zielsicher lokalisieren
Die technische Basis einer solchen Strategie ist eine moderne Datenmanagement-Lösung. Sie muss den IT-Verantwortlichen jederzeit auf Knopfdruck einen transparenten und schnellen Überblick darüber liefern, wo genau innerhalb der internen oder externen IT-Umgebung welche Daten gespeichert sind. Denn bei einem Ausfall wichtiger Dienste zählt jede Minute. Aufwändige und zeitfressende Analysen heterogener Insellösungen würden das Unternehmen bares Geld kosten.

Vielmehr muss sofort ersichtlich sein, wie die betreffenden Daten verteilt sind: auf interne Storage-Ressourcen, auf physische oder virtualisierte Server, auf Private-, Public- oder Hybrid-Cloud-Infrastrukturen? Nur so können IT-Administratoren zeitnah und präzise abschätzen, ob und in welchem Maß eine Panne den Geschäftsbetrieb beeinträchtigt und entsprechende Gegenmaßnahmen einleiten.

Eine der größten Herausforderungen beim Management von Unternehmensdaten liegt in deren Sicherung und Wiederherstellung. Diese Prozesse werden durch die (teilweise) Auslagerung in die Cloud zunehmend zu einer komplexen Aufgabe. Das Risiko, geschäftskritische Daten zu verlieren, steigt. So müssen in Backup, Recovery und Archivierung der Daten heterogene Speicherorte, Applikationen und Hypervisoren einbezogen werden, sei es on-premises oder in privaten, öffentlichen sowie hybriden Cloud-Umgebungen. Je mehr virtuelle Maschinen im Einsatz sind, desto anspruchsvoller wird deren lückenlose Erfassung für die Datensicherung.

Backup und Recovery mit nur einem Klick
Genau darin besteht die primäre Aufgabe einer Datenmanagement-Plattform: Sie muss sämtliche physischen, virtuellen sowie Cloud-basierten Speicherorte identifizieren und einheitlich verwalten – und das alles automatisiert, einfach und schnell. Das gilt für die Erstellung von Backups ebenso wie für die Wiederherstellung aller relevanten Daten mit nur einem Klick, um im Ernstfall die Business-Continuity zu gewährleisten.

Eine wichtige Anforderung dabei: Die meisten Unternehmen, die Cloud-Services nutzen, arbeiten mit Lösungen mehrerer Anbieter wie etwa Amazon S3, Microsoft Azure Storage oder Google Cloud Storage. Eine performante Datenmanagement-Plattform wie etwa Commvault muss nun in der Lage sein, auf verschiedene Cloud-Umgebungen verteilte Daten sicher zu identifizieren und zu lokalisieren. Fällt eine Cloud-Anwendung aus, müssen sich die Ressourcen schnell und flexibel auf eine andere Plattform verschieben lassen, um den Geschäftsbetrieb aufrecht zu erhalten und empfindliche Umsatzeinbußen zu vermeiden.

GDPR – Auskunftspflicht für Unternehmen
Eine weitere Herausforderung für das Datenmanagement bringt die neue EU-Datenschutz-Grundverordnung (General Data Protection Regulation, GDPR) mit sich, die 2018 in Kraft treten wird. Ab dann sind Unternehmen mit umfassenden Auskunftspflichten zur Speicherung personenbezogener Daten belegt. Privatleute haben nicht nur Anspruch auf Information, sondern auch auf Berichtigung und sogar Löschung ihrer Daten.

Fazit
Um die beschriebenen Anforderung zu meistern, benötigen Firmen eine umfassende Sicht auf ihre Daten-Infrastruktur. Auch hierbei unterstützt eine ganzheitliche Datenmanagement-Plattform. Damit lassen sich alle im Unternehmen verteilten, digitalen Informationen indexieren, gezielt auffinden und auf Verlangen des Kunden löschen – unabhängig vom aktuellen On- oder Off-Premises-Speicherort.
5.07.2017/ln/Wolfgang Sowarsch, Manager Systems Engineering bei Commvault

Nachrichten

Traffic bei Akamai erreicht Rekordhöhe [18.09.2017]

Am Dienstag, den 12. September 2017, verzeichnete Akamai einen neuen Traffic-Rekord auf seiner Plattform. Mit mehr als 60 TBit/s wurde der vorangegangene Höchstwert von 47 TBit/s gebrochen. Der Rekord entstand durch mehrere parallel stattfindende Events auf der Plattform, die zeitgleich zum normalen Datenverkehr zur Abfrage hoher Datenmengen führten. [mehr]

Datendurchsatz für Arbeitsgruppen [12.09.2017]

Netgear stellt die zweite Generation seines Smart-Managed-Switches für KMU vor. Der Netgear 12-Port 10-GBit Ethernet Smart Managed Pro Switch ist Teil der Netgear Standalone-Smart-Managed-Pro-Familie. Diese ist für konvergierte Netzwerke konzipiert, bei denen Sprach- und Videoübertragung sowie der Datenverkehr über eine Netzwerkplattform laufen. [mehr]

Tipps & Tools

Download der Woche: Aris Express [23.08.2017]

Das Management von Prozessen gehört für fast alle IT-Profis fest zum Tätigkeitsprofil. Neben dem Abbilden der reinen Infrastruktur sind für viele Projekte auch Datenmodelle und Organigramme gefordert. Das kostenfreie Werkzeug 'Aris Express' kann all diese Abläufe grafisch und in Verlaufsform darstellen. Großer Pluspunkt der Software: Die Benutzeroberfläche ist einfach zu handhaben und selbst umfangreiche Modelle lassen sich ohne besonders viel Erfahrung erstellen. [mehr]

Karabiner-Ladekabel für unterwegs [19.08.2017]

Dass sich Smartphones und andere Gadgets immer noch schneller entleeren als Nutzern lieb ist, kennen die meisten. Allerdings sind dann in vielen Fällen entweder die Ladekabel gar nicht erst eingepackt oder verschwinden in den Tiefen von Bürotaschen, Rucksäcken oder Koffern. Mit dem praktischen Karabiner-Ladekabel von Nomad haben Sie jederzeit eine schnelle Lösung zur Hand. [mehr]

Buchbesprechung

Citrix XenMobile 10

von Thomas Krampe

Anzeigen