Fachartikel

Latenzen minimieren bei der Cloudmigration

Wer Workloads in die Cloud verschieben will, spielt vorher die effiziente Cloudnutzung durch. Das schließt den Ansatz "Compute in der Cloud, Daten lokal" wegen hoher Latenz meist aus. Das übliche Kopieren der Datensätze zum Cloudprovider dauert jedoch, wenn die WAN-Leitung nicht üppig bemessen ist. Sollen zudem andere Applikationen auf die Daten zugreifen, kommen NAS-Dienste ins Spiel, für die die Hyperscaler eher wenig bieten. Doch wie der Fachbeitrag zeigt, gibt es hier durchaus Alternativen.
Bei der Auslagerung von Workloads in die Cloud gilt es stets, die Latenzfrage zu beachten.
Alles muss in die Cloud. Zu dieser Lesart verführt der Hype um Cloud Computing, aber das ist nicht zielführend. Eine Unternehmen legt eine solide Entscheidungsgrundlage, indem sie alle ihre Workloads kategorisiert. Buchhaltungssystem, Office, Kalender, E-Mail, Fachanwendungen und vieles mehr summieren sich schnell zu hunderten Workloads, die bei großen Unternehmen rasch die Tausendergrenze überschreiten. Danach wird geprüft, welche Applikationen bei einem Cloudbetrieb tatsächlich einen Geschäftsvorteil bringen und compliant sind. Nun stellt sich die Frage für den Workload: Alles in die Cloud?

Ein Workload wird nicht getrennt, oder?
Ein Workload besteht aus mehreren Komponenten, die aber eine Einheit bilden, und sollte deshalb nicht auseinandergerissen werden. Denn die nötige Kommunikation zwischen Teilen eines Workloads, die einerseits im Rechenzentrum und andererseits der Cloud laufen, erhöht die Latenz. Wer demnach einen Workload trennt, muss sich darüber im Klaren sein. Was also rechtfertigt beispielsweise das Rechnen in der Cloud und das Datenhalten On-Premises?

Ein Unternehmen könnte auf diese Weise etwa wiederkehrende Spitzen an Rechenkapazitäten, die die normale Last um das Fünf- bis Hundertfache übersteigen, aus der Cloud decken. Das sogenannte Cloud Bursting funktioniert mit Anwendungen, die weder auf einer komplexen Infrastruktur laufen, noch auf Interaktionen mit anderen Applikationen und Systemen angewiesen sind. Fällt ein Workload in diese Kategorie, sollte vor dem Trennen eine genaue Datenbetrachtung erfolgen.

Hadoop-Cluster rechnen mit Kopien
Diese Aufgabe stellt sich Versicherungen, die ihren Quartalsabschluss machen, genauso wie Onlineshops im Weihnachtsgeschäft oder Stromanbietern. Ein Energieversorger kalkuliert beispielsweise einmal im Quartal neu, um seine Preise zu optimieren. Die Berechnungen würden mit einem Hadoop-Cluster von 100 Knoten in der Cloud eine Woche dauern. Im eigenen Rechenzentrum hält der Stromanbieter 20 Knoten für ein Hadoop-Cluster vor, die sonst alle Berechnungen bestens abdecken. Die Daten liegen lokal, eine hohe Latenz und geringe Bandbreite verlangsamen das Rechnen, trotz der vielen Knoten in der Cloud. Die Firma kopiert deswegen unter anderem die Daten zum Wetter, von den Windrädern und Verbrauchern ins Speichersystem oder zu Speicherdiensten in der Cloud.

Zum Beispiel wird zu S3 von AWS kopiert. Dort erwartet EMR (Elastic MapReduce), der Hadoop-Dienst von AWS, die Daten. Diese Eingangsdaten sind üblicherweise sehr groß. Deshalb entscheidet sich der Versorger dazu, Datensätze sukzessive zu kopieren, sobald diese vorliegen. Bei vollständigen Eingangsdaten rechnet der Hadoop-Cluster los. Dabei wäre es sinnvoll zu überlegen, anstelle von 100 besser gleich 1000 Knoten zu buchen. Denn 1000 Knoten brauchen nur ein Zehntel der Zeit und kosten dasselbe. Der Ergebnisdatensatz wird danach entweder in der Cloud abgelegt, zurück ins Firmenrechenzentrum kopiert oder zurückgeschrieben.

Zum Kopieren der Daten von On-Premises in die Cloud können Unternehmen zu Open-Source-Tools greifen. Allerdings werden freie Werkzeuge umso langsamer, je größer die Datenmenge ist. Denn sie kopieren sequenziell, also ein File beziehungsweise einen Datensatz nach dem anderen. Beim Kopieren über WAN kommt noch hinzu, dass die Leitung nicht voll wird. Das Erstellen einer Kopie bei einer 1-GByte-Leitung mit einer Latenz von 30 Millisekunden dauert ewig. Die Lösung sind Dienste, die das Kopieren hochgradig parallelisieren, indem sie zwischen NAS und einem Objektspeicher wie S3 hin und her kopieren. In dem Fall ergibt Datensatzgröße geteilt durch Bandbreite ungefähr die Zeit, um die Daten zu kopieren. Die Rechnung geht beispielsweise mit NetApp Cloud Sync auf, da der Dienst die skizzierte Anforderung erfüllt.



Seite 1 von 2 Nächste Seite >>
16.01.2019/ln/Oliver Krause, Cloud Solution Architect bei NetApp

Nachrichten

Flash und Cloud als Zukunft der Storage-Landschaft [16.04.2019]

Auch wenn in den Köpfen vieler IT-Verantwortlicher aktuell noch Disk und Tape die dominierenden Medien rund um die Datensicherung – also unter anderem Backup – sind, so erwartet Pure Storage für die Zukunft hier einen Wandel hin zu neuen Speichermedien und Modellen. Konkret bedeutet dies: Flash und Cloud. [mehr]

Backup für die Google-Cloud [10.04.2019]

Mit 'Cohesity Cloud Backup Service for Google Cloud' steht ab sofort eine SaaS-Lösung zur Verfügung, die Unternehmen Backup und Recovery für Anwendungen auf der Google Cloud Platform (GCP) bietet. Punkten soll der Dienst unter anderem durch nutzungsbasierte Preise, die vollständig in die GCP-Abrechnung integriert und über den GCP Marketplace verfügbar sind. [mehr]

Tipps & Tools

VW-Oldtimer mit GByte statt PS [20.04.2019]

Für Kampagnen oder Mitarbeiter-Events sind besondere Giveaways immer gerne gesehen. Eine schöne Alternative stellt der USB-Stick in Form des Originalmodells eines 1963er-Volkswagen-T1-Busses dar. Der mobile Speicher mit Schiebemechanik besitzt eine Kapazität von 16 GByte und lässt sich in der Karosserie des kleinen Autos verstauen. Damit sind die Daten ähnlich wie in einer Knautschzone beim echten Auto unterwegs auf schicke Weise bestens geschützt. [mehr]

Seit Kurzem erhältlich: IT-Administrator KOMPAKT 'Storage' [15.04.2019]

Auch in Zeiten rasant wachsender Datenmengen dürfen Administratoren nicht den Überblick über die Speicherumgebung im Unternehmen verlieren. Wer deshalb sein Wissen festigen und ausbauen will, sollte einen Blick in das neue Buch 'IT-Administrator KOMPAKT Storage' riskieren. Auf knapp 200 Seiten erfahren Sie dort alles zu aktuellen Technologien und dem Management des laufenden Betriebs. Bestellen Sie jetzt - Abonnenten profitieren von einem günstigeren Preis. [mehr]

Buchbesprechung

IT-Sicherheit

von Prof. Dr. Claudia Eckert

Anzeigen