Meldung

Datensicherung in der Multicloud

Zahlreiche Unternehmen arbeiten an der Migration von Workloads in die Cloud. Da verschiedene Cloudanbieter unterschiedliche Stärken bieten, führt dies oft dazu, dass Firmen mehrere Anbieter einsetzen. Um sich für den Erfolg zu rüsten, sollten Unternehmen überlegen, wie Cloudservices in ihre gesamte IT-Landschaft passen. Ein Aspekt, der hierbei eine zunehmende Rolle spielt, ist die Umsetzbarkeit einer modernen Datensicherung.
Die Datensicherung in Multicloud-Umgebungen stellt Firmen mitunter vor Herausforderungen.
Was als vereinfachende Technologie gedacht war, kann zu neuen Komplexitäten führen. Wenn mehrere Cloudlösungen riesige Datenmengen generieren, die an verschiedenen Orten gespeichert werden, führt dies zu Herausforderungen hinsichtlich Governance und Compliance.

Cloud Computing, das eigentlich eine Umgebung mit einer einzigen Oberfläche für einfache Transparenz und Governance schaffen sollte, ist zu einer fragmentierten, hybriden Umgebung geworden. In dieser Umgebung hilft laut Rubrik [1] die Vereinheitlichung der Strategie durch die Abstimmung von Entscheidungen und die Eindämmung von Datenwildwuchs dabei, wesentliche Fragen zu klären: Welche Systeme mit welchen verbunden werden müssen, wo die Schwachstellen liegen, wo bestimmte Daten gespeichert werden und ob jedes Datensilo mit den lokalen und bundesstaatlichen Gesetzen und Vorschriften konform ist.

Es gibt viele Gründe, warum sich Unternehmen dafür entscheiden, einen Teil ihrer Daten vor Ort zu speichern oder mehrere Cloudanbieter zu nutzen. Etwa 93 Prozent der Unternehmen nutzen bereits mehrere Cloudanbieter, um beispielsweise verschiedene Workloads auszubalancieren. Oft versuchen Unternehmen, eine Anbieterbindung zu vermeiden. Hinzu kommt die Redundanzkomponente. Wenn ein Cloudprovider ausfällt, sind Unternehmen, die in einer hybriden Umgebung arbeiten, in einer besseren Position, um den Geschäftsbetrieb aufrechtzuerhalten.

Zum Beispiel möchten Unternehmen vielleicht mehrere Kopien ihrer Daten an verschiedenen Orten aufbewahren, um Compliance und Governance zu gewährleisten. Die 3-2-1-Backup-Regel ist ein leicht zu merkendes Akronym für einen allgemeinen Ansatz zur Sicherung von Daten in fast jedem Ausfallszenario. Die Regel lautet: Mindestens drei Kopien der Daten aufbewahren, zwei Sicherungskopien auf unterschiedlichen Speichermedien anlegen, wobei eine davon an einem externen Standort liegen sollte.

Unternehmen wollen in der Regel alles tun, um ihre Daten gegen allgemeine und ungewöhnliche Gefahren zu schützen, die zu erhöhten Ausfallzeiten und Kosten führen können. Der Schutz von Daten vor Festplattenausfällen, Überspannungen, Feuer oder Wassergefahren ist ziemlich gut dokumentiert. Wie sieht es aber mit dem Schutz der Daten vor bösartigen Angriffen und Viren aus?

Tools für eine moderne Datensicherung
Was Unternehmen brauchen, ist eine standardisierte Methode, um alle ihre Daten aus allen Quellen – und über alle Cloud-Umgebungen hinweg – zu erfassen und an einem Ort anzuzeigen und zu verwalten. Diese einzige "Quelle der Wahrheit" ist nach Meinung von Rubrik unerlässlich für:

  • Mobilität: Die heutige Arbeitsumgebung – sowohl bei Remote- als auch bei hybriden Arbeitsmodellen – erfordert flexible Lösungen für Mitarbeiter, damit sie von jedem Ort der Welt aus kommunizieren und zusammenarbeiten können. Im Gegenzug müssen CTOs natürlich einen Überblick über die Daten ihrer verteilten Mitarbeiter haben, um diese richtig verwalten und sichern zu können.
  • Sicherheit: Mit einem Verständnis aller Berührungspunkte für den Datenzugriff und die Datengenerierung können Unternehmen bei der Absicherung ihrer Belegschaft helfen. Zu verstehen, wer Zugriff auf die Daten hat, was mit den Daten geschieht und was die Daten enthalten, ist der Schlüssel zur Erkennung und Wiederherstellung nach einer Cyberkatastrophe.
  • Compliance: Unterschiedliche Datentypen haben unterschiedliche Compliance-Anforderungen, sei es basierend auf der Art (etwa Gesundheitsdaten) oder der Geografie. Für Unternehmen ist es wichtig zu wissen, wo sich alle ihre Daten befinden, um sicherzustellen, dass sie nicht versehentlich gegen Vorschriften verstoßen.
  • Governance: Bei der Daten-Governance geht es um die Anwendung von Best Practices zur Verwaltung von Daten in jeder Phase des Datenlebenszyklus. So können Unternehmen den Datenschutz sicherstellen und gleichzeitig einen Mehrwert aus ihren Daten generieren, anstatt sie stagnieren zu lassen.
  • Sicherung und Wiederherstellung: Unternehmen müssen wissen, wo sich alle ihre Daten befinden, um sie zu schützen. Laut IDC wird die Welt 175 Zettabytes an Daten bis 2025 generieren, was CTOs vor enorme Herausforderungen bei Backup und Recovery stellt.

Hier bietet sich immer häufiger die Kombination aufeinander abgestimmter Lösungen an. Mit orchestrierten Datenservices, die beispielsweise über Data Fabric bereitgestellt werden, können Unternehmen ihr Datenmanagement optimieren. Gleichzeitig können sie so beispielsweise die Vorteile einer Multicloud-Strategie nutzen – egal ob vor Ort oder in der Cloud.
20.07.2021/dr

Tipps & Tools

Im Test: Red Hat OpenShift 4.7 [1.07.2021]

Leicht, effizient und komfortabel sollen IT-Verantwortliche dank OpenShift 4.7 von Red Hat in den Genuss von Container-Orchestrierung mit Kubernetes kommen. Ob dies gelingt, entscheidet sich in der Praxis an Punkten wie Betrieb, Wartung und Sicherheit sowie den vorhandenen Kubernetes-Funktionen. Im Test bewährte sich OpenShift 4.7 zwar sehr gut, gleichzeitig brachten Abweichungen von Red Hats Vorgaben jedoch Probleme mit sich. [mehr]

Vorschau Juli 2021: Container- und Applikationsmanagement [21.06.2021]

Das flexible Bereitstellen von Anwendungen und Software-Umgebungen ist dank der Container-Technologie kein Hexenwerk mehr. Dennoch gilt es für Admins, so manche Fallstricke zu umgehen. In der Juli-Ausgabe befasst sich IT-Administrator mit dem Thema "Container- und Applikationsmanagement". Darin lesen Sie, wie Sie Ihre eigenen Container-Templates erstellen und serverlose, cloudnative Anwendungen mit Knative automatisiert betreiben. Außerdem beleuchten wir das Windows Subsystem für Linux 2 und zeigen, wie Sie Kubernetes in vSphere ohne Cloud Foundation betreiben. In de Produkttests werfen wir einen Blick auf Red Hat OpenShift. [mehr]

Fachartikel

Leistungsüberwachung von Windows Server 2019 (1) [2.08.2021]

Auch unter Windows Server 2019 gibt es Faktoren, die die bestmögliche Leistung des Systems negativ beeinträchtigen können. So die Zugriffsgeschwindigkeit der physischen Datenträger, die für alle laufenden Prozesse zur Verfügung stehende Speichermenge, die Prozessorgeschwindigkeit und der Datendurchsatz der Netzwerkschnittstellen. Mangelt es hier an Performance, stehen zur Überprüfung passende Bordmittel bereit. Im ersten Teil des Workshops schauen wir uns an, wie wir die Leistungsüberwachung einrichten, Indikatorendaten beobachten, Sammlungssätze nutzen und Speicherengpässe beheben. [mehr]

Buchbesprechung

Windows 10 Power-Tipps

von Günter Born

Anzeigen