Fachartikel

So gelingt der Cloud-Exit

Es gibt viele Gründe, warum Unternehmen Daten oder Applikationen aus einer Public Cloud zu einem anderen Provider oder in die eigene Infrastruktur umziehen. Das können Fragen der Sicherheit oder Kosten sein – oder der Wunsch, unabhängig von einem bestimmten externen Dienstleister zu sein. Wichtig ist, diesen Weg zurück gut zu planen, sodass Applikationen trotz des Umzugs störungsfrei weiterarbeiten können. Wie der Fachartikel zeigt, kann eine softwaredefinierte Architektur diese und weitere Migrationsaufgaben massiv vereinfachen.
Ein- und Ausgang: Der Weg in die Cloud muss keine Einbahnstraße sein.
Anfang März brannte in Straßburg eines der größeren Rechenzentren in Frankreich aus und der betroffene Provider OVHcloud musste alle seine Dienste kurzzeitig unterbrechen. Nur Tage später wurde der Massenhack gegen Microsoft Exchange publik: Tausende von Firmen in Deutschland mussten erfahren, dass ihre lokalen Groupware-Systeme angreifbar waren. Kurz darauf verschlechtert sich das politische Klima zwischen Großbritannien und der EU. Die EU wirft der britischen Regierung vor, wegen der Warenkontrollen in Nordirland gegen den Brexit-Vertrag verstoßen zu haben. Diese turbulenten Tage zeigen exemplarisch, welche externen Faktoren ein Unternehmen dazu bewegt, Daten zu verschieben oder ganze Applikationen zu migrieren.

Aber auch interne Faktoren können eine Firma motivieren, ein Migrationsprojekt zu starten. Das können reine Kostenfragen sein, weil ein anderer Provider günstiger ist. Oder es sind Sicherheitsfragen, weil Daten zu sensibel sind und daher nicht in der Cloud oder in bestimmten Regionen von dieser liegen dürfen. Den Workload wieder ins eigene Rechenzentrum zu holen, kann unter Umständen Entwicklungszyklen verkürzen, da man auf eigenen Systemen schneller und effizienter entwickeln kann.

Unabhängig des jeweiligen Impulses ist die Aufgabe weniger trivial als sie auf den ersten Blick erscheint. Die Herausforderung hängt stark davon ab, wie viele Daten zu bewegen sind und wie sehr die Cloud die Applikationen und Dienste im Unternehmen bereits durchdrungen hat. Es gilt das Prinzip: Je komplexer die Netzinfrastruktur, je mehr Ebenen eine Applikation besitzt und je mehr diese externe Cloudressourcen miteinander koppelt, desto schwieriger ist eine Migration der Workloads und Daten. Je nachdem, wo sich ein Unternehmen auf der Reise bei der Cloudadaption befindet, bieten sich verschiedene Ansätze und Best Practices an. Alle helfen Firmen, die Migration der Daten so schnell und sicher wie möglich abzuwickeln, ohne dass ungeplante Ausfallzeiten auftreten.

Mit einem Zeh in der Cloud
Gerade kleine und mittelgroße Firmen sowie stark reglementierte Branchen sind oft noch am Anfang ihrer Reise in die Cloud und haben erste Dienste eingeführt, beispielsweise der Zukauf externer Speicher, und erste Cloud-Workloads. Insbesondere durch den Lockdown sind viele Firmen kurzfristig auf Dienste wie Microsoft 365 und Teams oder Zoom ausgewichen, damit ihre Mitarbeiter von zu Hause weiterarbeiten können. Der Massenhack von Exchange, so erwarten es die Analysten, wird die Migration von Groupware in die Cloud weiter beschleunigen.

Wer also mit einem Zeh in die Cloud gehen will oder bereits ist und sich nun entschieden hat, auf andere Angebote auszuweichen, der sollte eine der wichtigsten und für alle Phasen der Cloudadaption gültige Best Practice anwenden: Es ist wichtig, sich im ersten Schritt einen Überblick über alle Dienste und vor allem über die darüber getauschten Daten zu verschaffen. Tools wie "Data Insight" von Veritas sammeln hierzu die Metadaten des Dateisystems ein, unabhängig davon, ob die Daten lokal oder in Cloudspeichern abgelegt sind. Diese Daten besagen, wie alt die Files sind, welchem User oder welcher Abteilung sie zugeordnet sind, zu welchem Applikationstyp sie gehören und wann sie zuletzt geöffnet wurden. Dieses Wissen können KMU dann an Programme wie Power BI von Microsoft exportieren, um die Massen von unstrukturierten Informationen zu kartographieren. Außerdem sind Firmen dazu in der Lage, auf Basis dieses Wissens mögliche Risiken, veraltete Daten und wertvolle Informationen zu identifizieren. Sie können also vorab entscheiden, welche Daten sie migrieren und welche sie löschen oder archivieren wollen.
Neue Erkenntnisse durch Verknüpfung von Metadaten
Wenn Firmen die Daten genauer analysieren möchten, können sie Werkzeuge wie Data Insight mit Archivlösungen koppeln: Die Daten werden nach frei definierbaren Richtlinien klassifiziert und mit vordefinierten Mustern und Filtern – beispielsweise für personenbezogene Daten – abgeglichen. Jede Datei, die archiviert ist, wird automatisch untersucht und nach Bedarf gekennzeichnet.

Firmen können dank der Verknüpfung der Metadaten und der Klassifizierung beispielsweise sofort erkennen, ob Mitarbeiter sensible Daten auf offenen Shares abgelegt haben, die bei der Migration sofort in gesicherte Speicher transferiert werden müssen. Unternehmen können alte Datenbestände aufstöbern, die ehemaligen Mitarbeitern gehören und längst gelöscht sein müssten. Sie können redundante Files, beispielsweise mehrfach abgelegte Kopien von Datenbanken, die zu Entwicklungszwecken angelegt wurden, finden. All das hilft, den Datenberg besser zu verstehen und Löschbares zu finden, damit am Ende die zu migrierende Menge der Files möglichst klein bleibt. Schließlich hat die Anzahl der Daten immensen Einfluss auf die Dauer des gesamten Migrationsprozesses.

Im Archiv können Firmen zudem entscheiden, ob bestimmte Daten nach der Klassifizierung genauer zu untersuchen sind, bevor deren Migration erfolgt. Archive wie Enterprise Vault von Veritas koppeln direkt Clouddienste wie Microsoft Office 365, Teams oder Zoom an und erkennen ebenso, welche Daten über diese Programme geteilt wurden. Dieser Einblick in die Collaboration-Umgebung ist wichtig, da nach dem Lockdown viele Firmen unabhängig von ihrer Größe auf diese gesetzt haben, um Remote Offices zu schaffen.

Unternehmen können auf Basis dieses Wissens auch strenge Vorgaben aus der Datenschutzgrundverordnung besser einhalten. Das Compliance-Risiko wird gesenkt, was ein schöner Nebeneffekt der Datenmigration ist. Und wer alte Daten löscht, räumt im Idealfall wertvollen Speicher frei und senkt dadurch Kosten.

Die komplexe Multicloud-Szenerie
In Deutschland haben mittelgroße und große Firmen im Schnitt mehr als elf Clouddienste im Einsatz. Dies ist ein Ergebnis aus der Ransomware-Multicloud-Umfrage von Veritas vom November 2020. Die IT-Umgebungen der befragten Unternehmen verknüpfen On-Premises-Infrastrukturen, Private und Public Clouds in einer so genannten Hybrid Cloud. Dies wird laut Analysten  bei den meisten mittelgroßen Firmen in den kommenden Jahren die vorherrschende Architektur sein.

Auch in diesem Fall sollte in einem ersten wichtigen Schritt eine genaue Inventur der Dienste und Daten erfolgen. Nur ist diese Aufgabe um einiges schwieriger als bei Firmen, die gerade erste Schritte in die Cloud machen. Im ersten Fall sind oft geschäftskritische Applikationen an die Cloud gekoppelt und verbinden unterschiedliche lokale sowie virtuelle Ressourcen miteinander. Zudem sind diese hybriden Umgebungen stark heterogen und bringen eine bunte Mischung aus Hard- und Software mit. Wer hier den Überblick gewinnen und sich ungern in fragmentierten Einzeltools separater Anbieter isolieren lassen will, kann die verschiedenen Tools und deren Ergebnisse an einer Stelle konsolidieren und gewinnt so einen Hardware-agnostischen Überblick.

Lösungen wie Aptare IT Analytics konsolidieren hierzu bis zu 30.000 Datenpunkte und helfen Unternehmen dabei, eine Übersicht ihrer Infrastruktur zu gewinnen. Setzen Firmen bereits eine Configuration Management Database ein, lassen sich diese Daten importieren. Dann erkennt das Unternehmen auf einen Blick, welche Ressourcen lokal und welche Cloudapplikation genau Verwendung finden. Das ist für Migrationsprojekte entscheidend.

7.04.2021/ln/Patrick Englisch, Regional Sales Engineer Leader bei Veritas Technologies

Nachrichten

PC-Sicherheit im Rudel [12.05.2021]

HP stellt "HP Wolf Security" vor. Das neue Portfolio vereint Secure-by-Design-PCs und Drucker mit Hardware-gestützter Endpoint-Security-Software und -Services. Damit möchte der Anbieter seine Kunden vor Cyberbedrohungen schützen. [mehr]

callas software veröffentlicht pdfaPilot 10.2 [11.05.2021]

callas software, ein führender Anbieter automatisierter PDF-Qualitätssicherungs- und -Archivierungslösungen, hat heute mit der Version 10.2 ein Major-Update seiner pdfaPilot-Produktlinie freigegeben. Dieses unterstützt bereits die vor Kurzem veröffentlichte Adobe-Acrobat-64-Bit-Version unter Windows. [mehr]

Tipps & Tools

Online-Training "Domaincontroller für Linux-Umgebungen mit FreeIPA" [17.05.2021]

Unser Training "Domaincontroller für Linux-Umgebungen mit FreeIPA« demonstriert praxisnah, wie sich Linux-Clients via Domaincontroller ähnlich komfortabel und ähnlich hohen Sicherheitsstandards verwalten lassen wie etwa das Active Directory. Dabei erhalten Sie zunächst Einführung in LDAP,Kerberos und X.509. Die Veranstaltung findet am 29. Juli 2021 online statt. Buchen Sie schnell, um sich noch einen Platz zu sichern – für Abonnenten gilt wie immer ein Sondertarif. [mehr]

Notepad-Fehler für PowerShell-Skripte umgehen [15.05.2021]

Für viele IT-Profis ist das Windows-eigene Notepad der Editor der Wahl, um Skripte in der PowerShell zu erstellen. Das um die 30 Jahre alte Tool ist nicht nur äußerst schlank, sondern stellt im Gegensatz zu anderen Programmiereditoren mit oft überbordender Farbcodierung seine Inhalte in klassischem Schwarz-Weiß dar. Allerdings scheinen per Notepad produzierte PowerShell-Skripte seit Kurzem vermehrt korrupt zu sein. [mehr]

Buchbesprechung

Computernetze und Internet of Things

von Patrick-Benjamin Bök, Andreas Noack, Marcel Müller

Anzeigen