Fachartikel

So gelingt der Cloud-Exit

Es gibt viele Gründe, warum Unternehmen Daten oder Applikationen aus einer Public Cloud zu einem anderen Provider oder in die eigene Infrastruktur umziehen. Das können Fragen der Sicherheit oder Kosten sein – oder der Wunsch, unabhängig von einem bestimmten externen Dienstleister zu sein. Wichtig ist, diesen Weg zurück gut zu planen, sodass Applikationen trotz des Umzugs störungsfrei weiterarbeiten können. Wie der Fachartikel zeigt, kann eine softwaredefinierte Architektur diese und weitere Migrationsaufgaben massiv vereinfachen.
Ein- und Ausgang: Der Weg in die Cloud muss keine Einbahnstraße sein.
Anfang März brannte in Straßburg eines der größeren Rechenzentren in Frankreich aus und der betroffene Provider OVHcloud musste alle seine Dienste kurzzeitig unterbrechen. Nur Tage später wurde der Massenhack gegen Microsoft Exchange publik: Tausende von Firmen in Deutschland mussten erfahren, dass ihre lokalen Groupware-Systeme angreifbar waren. Kurz darauf verschlechtert sich das politische Klima zwischen Großbritannien und der EU. Die EU wirft der britischen Regierung vor, wegen der Warenkontrollen in Nordirland gegen den Brexit-Vertrag verstoßen zu haben. Diese turbulenten Tage zeigen exemplarisch, welche externen Faktoren ein Unternehmen dazu bewegt, Daten zu verschieben oder ganze Applikationen zu migrieren.

Aber auch interne Faktoren können eine Firma motivieren, ein Migrationsprojekt zu starten. Das können reine Kostenfragen sein, weil ein anderer Provider günstiger ist. Oder es sind Sicherheitsfragen, weil Daten zu sensibel sind und daher nicht in der Cloud oder in bestimmten Regionen von dieser liegen dürfen. Den Workload wieder ins eigene Rechenzentrum zu holen, kann unter Umständen Entwicklungszyklen verkürzen, da man auf eigenen Systemen schneller und effizienter entwickeln kann.

Unabhängig des jeweiligen Impulses ist die Aufgabe weniger trivial als sie auf den ersten Blick erscheint. Die Herausforderung hängt stark davon ab, wie viele Daten zu bewegen sind und wie sehr die Cloud die Applikationen und Dienste im Unternehmen bereits durchdrungen hat. Es gilt das Prinzip: Je komplexer die Netzinfrastruktur, je mehr Ebenen eine Applikation besitzt und je mehr diese externe Cloudressourcen miteinander koppelt, desto schwieriger ist eine Migration der Workloads und Daten. Je nachdem, wo sich ein Unternehmen auf der Reise bei der Cloudadaption befindet, bieten sich verschiedene Ansätze und Best Practices an. Alle helfen Firmen, die Migration der Daten so schnell und sicher wie möglich abzuwickeln, ohne dass ungeplante Ausfallzeiten auftreten.

Mit einem Zeh in der Cloud
Gerade kleine und mittelgroße Firmen sowie stark reglementierte Branchen sind oft noch am Anfang ihrer Reise in die Cloud und haben erste Dienste eingeführt, beispielsweise der Zukauf externer Speicher, und erste Cloud-Workloads. Insbesondere durch den Lockdown sind viele Firmen kurzfristig auf Dienste wie Microsoft 365 und Teams oder Zoom ausgewichen, damit ihre Mitarbeiter von zu Hause weiterarbeiten können. Der Massenhack von Exchange, so erwarten es die Analysten, wird die Migration von Groupware in die Cloud weiter beschleunigen.

Wer also mit einem Zeh in die Cloud gehen will oder bereits ist und sich nun entschieden hat, auf andere Angebote auszuweichen, der sollte eine der wichtigsten und für alle Phasen der Cloudadaption gültige Best Practice anwenden: Es ist wichtig, sich im ersten Schritt einen Überblick über alle Dienste und vor allem über die darüber getauschten Daten zu verschaffen. Tools wie "Data Insight" von Veritas sammeln hierzu die Metadaten des Dateisystems ein, unabhängig davon, ob die Daten lokal oder in Cloudspeichern abgelegt sind. Diese Daten besagen, wie alt die Files sind, welchem User oder welcher Abteilung sie zugeordnet sind, zu welchem Applikationstyp sie gehören und wann sie zuletzt geöffnet wurden. Dieses Wissen können KMU dann an Programme wie Power BI von Microsoft exportieren, um die Massen von unstrukturierten Informationen zu kartographieren. Außerdem sind Firmen dazu in der Lage, auf Basis dieses Wissens mögliche Risiken, veraltete Daten und wertvolle Informationen zu identifizieren. Sie können also vorab entscheiden, welche Daten sie migrieren und welche sie löschen oder archivieren wollen.
Neue Erkenntnisse durch Verknüpfung von Metadaten
Wenn Firmen die Daten genauer analysieren möchten, können sie Werkzeuge wie Data Insight mit Archivlösungen koppeln: Die Daten werden nach frei definierbaren Richtlinien klassifiziert und mit vordefinierten Mustern und Filtern – beispielsweise für personenbezogene Daten – abgeglichen. Jede Datei, die archiviert ist, wird automatisch untersucht und nach Bedarf gekennzeichnet.

Firmen können dank der Verknüpfung der Metadaten und der Klassifizierung beispielsweise sofort erkennen, ob Mitarbeiter sensible Daten auf offenen Shares abgelegt haben, die bei der Migration sofort in gesicherte Speicher transferiert werden müssen. Unternehmen können alte Datenbestände aufstöbern, die ehemaligen Mitarbeitern gehören und längst gelöscht sein müssten. Sie können redundante Files, beispielsweise mehrfach abgelegte Kopien von Datenbanken, die zu Entwicklungszwecken angelegt wurden, finden. All das hilft, den Datenberg besser zu verstehen und Löschbares zu finden, damit am Ende die zu migrierende Menge der Files möglichst klein bleibt. Schließlich hat die Anzahl der Daten immensen Einfluss auf die Dauer des gesamten Migrationsprozesses.

Im Archiv können Firmen zudem entscheiden, ob bestimmte Daten nach der Klassifizierung genauer zu untersuchen sind, bevor deren Migration erfolgt. Archive wie Enterprise Vault von Veritas koppeln direkt Clouddienste wie Microsoft Office 365, Teams oder Zoom an und erkennen ebenso, welche Daten über diese Programme geteilt wurden. Dieser Einblick in die Collaboration-Umgebung ist wichtig, da nach dem Lockdown viele Firmen unabhängig von ihrer Größe auf diese gesetzt haben, um Remote Offices zu schaffen.

Unternehmen können auf Basis dieses Wissens auch strenge Vorgaben aus der Datenschutzgrundverordnung besser einhalten. Das Compliance-Risiko wird gesenkt, was ein schöner Nebeneffekt der Datenmigration ist. Und wer alte Daten löscht, räumt im Idealfall wertvollen Speicher frei und senkt dadurch Kosten.

Die komplexe Multicloud-Szenerie
In Deutschland haben mittelgroße und große Firmen im Schnitt mehr als elf Clouddienste im Einsatz. Dies ist ein Ergebnis aus der Ransomware-Multicloud-Umfrage von Veritas vom November 2020. Die IT-Umgebungen der befragten Unternehmen verknüpfen On-Premises-Infrastrukturen, Private und Public Clouds in einer so genannten Hybrid Cloud. Dies wird laut Analysten  bei den meisten mittelgroßen Firmen in den kommenden Jahren die vorherrschende Architektur sein.

Auch in diesem Fall sollte in einem ersten wichtigen Schritt eine genaue Inventur der Dienste und Daten erfolgen. Nur ist diese Aufgabe um einiges schwieriger als bei Firmen, die gerade erste Schritte in die Cloud machen. Im ersten Fall sind oft geschäftskritische Applikationen an die Cloud gekoppelt und verbinden unterschiedliche lokale sowie virtuelle Ressourcen miteinander. Zudem sind diese hybriden Umgebungen stark heterogen und bringen eine bunte Mischung aus Hard- und Software mit. Wer hier den Überblick gewinnen und sich ungern in fragmentierten Einzeltools separater Anbieter isolieren lassen will, kann die verschiedenen Tools und deren Ergebnisse an einer Stelle konsolidieren und gewinnt so einen Hardware-agnostischen Überblick.

Lösungen wie Aptare IT Analytics konsolidieren hierzu bis zu 30.000 Datenpunkte und helfen Unternehmen dabei, eine Übersicht ihrer Infrastruktur zu gewinnen. Setzen Firmen bereits eine Configuration Management Database ein, lassen sich diese Daten importieren. Dann erkennt das Unternehmen auf einen Blick, welche Ressourcen lokal und welche Cloudapplikation genau Verwendung finden. Das ist für Migrationsprojekte entscheidend.

7.04.2021/ln/Patrick Englisch, Regional Sales Engineer Leader bei Veritas Technologies

Nachrichten

Mobile Geräte unter Beschuss [12.04.2021]

Check Point hat den Mobile Security Report 2021 veröffentlicht, der die aktuellen Bedrohungen gegen mobile Geräte von Unternehmen untersucht. Fast jede Organisation soll im Jahr 2020 mindestens einen Mobile-Malware-Angriff erlebt haben. 93 Prozent dieser Angriffe hatten dem Report zufolge ihren Ursprung in einem Gerätenetzwerk, das mithilfe infizierter Websites oder URLs versuchte bösartige Nutzlast auszuführen oder Anmeldedaten von Benutzern zu stehlen. [mehr]

Zero Trust über Workloads hinweg [12.04.2021]

Ein Zero-Trust-Ansatz ist am effektivsten, wenn er sich über alle Standorte und Umgebungen erstreckt, in denen Workloads auf verschiedene Anwendungen und Daten zurückgreifen. Aus diesem Grund unterstützt eine zeitgemäße Firewall-Plattform eine Zero-Trust-Architektur erheblich, indem sie die Netzwerksicherheit so nah wie möglich an die Workloads heranbringt. Wie dies gelingt und worauf es ankommt, erklärt Palo Alto Networks. [mehr]

Tipps & Tools

Jetzt buchen: "Office 365 bereitstellen und absichern" [12.04.2021]

Die Clouddienste von Office 365 vereinfachen die Bereitstellung der Office-Applikationen für die Anwender und können Lizenzgebühren sparen. Doch auf den Admin kommen ganz neue Aufgaben zu, die unser dreitägiges Intensiv-Seminar "Office 365 bereitstellen und absichern" praxisnah adressiert. So widmen wir uns neben der Auswahl der geeigneten Lizenzform der Vorbereitung der Infrastruktur und zeigen die Verwaltung und Absicherung von Exchange und SharePoint Online sowie MS Teams. Die Veranstaltung findet Mitte Juli sowohl vor Ort als auch online statt. [mehr]

PowerShell-Skripte auf Fehler überprüfen [11.04.2021]

Viele Administratoren sind in Sachen Automatisierung per PowerShell-Skript eher zurückhaltend. Die Gründe hierfür sind vielfältig, einer der gewichtigsten dürfte jedoch das Fehler- und Schadenspotenzial eines selbstgeschriebenen Skripts sein. Das Open-Source-Tool Pester steht seit vielen Jahren bereit, um Admins diese Bedenken zu nehmen, indem es durch die Erstellung von Skripten leitet und dieses auf mögliche Fehler testet. [mehr]

Buchbesprechung

Computernetze und Internet of Things

von Patrick-Benjamin Bök, Andreas Noack, Marcel Müller

Anzeigen