Fachartikel

Latenzen minimieren bei der Cloudmigration

Wer Workloads in die Cloud verschieben will, spielt vorher die effiziente Cloudnutzung durch. Das schließt den Ansatz "Compute in der Cloud, Daten lokal" wegen hoher Latenz meist aus. Das übliche Kopieren der Datensätze zum Cloudprovider dauert jedoch, wenn die WAN-Leitung nicht üppig bemessen ist. Sollen zudem andere Applikationen auf die Daten zugreifen, kommen NAS-Dienste ins Spiel, für die die Hyperscaler eher wenig bieten. Doch wie der Fachbeitrag zeigt, gibt es hier durchaus Alternativen.
Bei der Auslagerung von Workloads in die Cloud gilt es stets, die Latenzfrage zu beachten.
Alles muss in die Cloud. Zu dieser Lesart verführt der Hype um Cloud Computing, aber das ist nicht zielführend. Eine Unternehmen legt eine solide Entscheidungsgrundlage, indem sie alle ihre Workloads kategorisiert. Buchhaltungssystem, Office, Kalender, E-Mail, Fachanwendungen und vieles mehr summieren sich schnell zu hunderten Workloads, die bei großen Unternehmen rasch die Tausendergrenze überschreiten. Danach wird geprüft, welche Applikationen bei einem Cloudbetrieb tatsächlich einen Geschäftsvorteil bringen und compliant sind. Nun stellt sich die Frage für den Workload: Alles in die Cloud?

Ein Workload wird nicht getrennt, oder?
Ein Workload besteht aus mehreren Komponenten, die aber eine Einheit bilden, und sollte deshalb nicht auseinandergerissen werden. Denn die nötige Kommunikation zwischen Teilen eines Workloads, die einerseits im Rechenzentrum und andererseits der Cloud laufen, erhöht die Latenz. Wer demnach einen Workload trennt, muss sich darüber im Klaren sein. Was also rechtfertigt beispielsweise das Rechnen in der Cloud und das Datenhalten On-Premises?

Ein Unternehmen könnte auf diese Weise etwa wiederkehrende Spitzen an Rechenkapazitäten, die die normale Last um das Fünf- bis Hundertfache übersteigen, aus der Cloud decken. Das sogenannte Cloud Bursting funktioniert mit Anwendungen, die weder auf einer komplexen Infrastruktur laufen, noch auf Interaktionen mit anderen Applikationen und Systemen angewiesen sind. Fällt ein Workload in diese Kategorie, sollte vor dem Trennen eine genaue Datenbetrachtung erfolgen.

Hadoop-Cluster rechnen mit Kopien
Diese Aufgabe stellt sich Versicherungen, die ihren Quartalsabschluss machen, genauso wie Onlineshops im Weihnachtsgeschäft oder Stromanbietern. Ein Energieversorger kalkuliert beispielsweise einmal im Quartal neu, um seine Preise zu optimieren. Die Berechnungen würden mit einem Hadoop-Cluster von 100 Knoten in der Cloud eine Woche dauern. Im eigenen Rechenzentrum hält der Stromanbieter 20 Knoten für ein Hadoop-Cluster vor, die sonst alle Berechnungen bestens abdecken. Die Daten liegen lokal, eine hohe Latenz und geringe Bandbreite verlangsamen das Rechnen, trotz der vielen Knoten in der Cloud. Die Firma kopiert deswegen unter anderem die Daten zum Wetter, von den Windrädern und Verbrauchern ins Speichersystem oder zu Speicherdiensten in der Cloud.

Zum Beispiel wird zu S3 von AWS kopiert. Dort erwartet EMR (Elastic MapReduce), der Hadoop-Dienst von AWS, die Daten. Diese Eingangsdaten sind üblicherweise sehr groß. Deshalb entscheidet sich der Versorger dazu, Datensätze sukzessive zu kopieren, sobald diese vorliegen. Bei vollständigen Eingangsdaten rechnet der Hadoop-Cluster los. Dabei wäre es sinnvoll zu überlegen, anstelle von 100 besser gleich 1000 Knoten zu buchen. Denn 1000 Knoten brauchen nur ein Zehntel der Zeit und kosten dasselbe. Der Ergebnisdatensatz wird danach entweder in der Cloud abgelegt, zurück ins Firmenrechenzentrum kopiert oder zurückgeschrieben.

Zum Kopieren der Daten von On-Premises in die Cloud können Unternehmen zu Open-Source-Tools greifen. Allerdings werden freie Werkzeuge umso langsamer, je größer die Datenmenge ist. Denn sie kopieren sequenziell, also ein File beziehungsweise einen Datensatz nach dem anderen. Beim Kopieren über WAN kommt noch hinzu, dass die Leitung nicht voll wird. Das Erstellen einer Kopie bei einer 1-GByte-Leitung mit einer Latenz von 30 Millisekunden dauert ewig. Die Lösung sind Dienste, die das Kopieren hochgradig parallelisieren, indem sie zwischen NAS und einem Objektspeicher wie S3 hin und her kopieren. In dem Fall ergibt Datensatzgröße geteilt durch Bandbreite ungefähr die Zeit, um die Daten zu kopieren. Die Rechnung geht beispielsweise mit NetApp Cloud Sync auf, da der Dienst die skizzierte Anforderung erfüllt.



Seite 1 von 2 Nächste Seite >>
16.01.2019/ln/Oliver Krause, Cloud Solution Architect bei NetApp

Nachrichten

Intelligente Transaktionen [14.01.2020]

Mit "MariaDB Platform X4" erscheint die neue Version der Open-Source-Datenbank und folgt einem umfassenden Cloud-Native-Ansatz. Das jüngste Release arbeitet mit einem neuen Typ intelligenter Engines und deutlich vereinfachtem Design. Punkten soll die Datenbank nicht zuletzt dadurch, dass sie sowohl transaktionale, analytische als auch hybride Workloads verarbeiten kann. [mehr]

Objekt-Storage für Tape [10.12.2019]

PoINT hat sein "PoINT Archival Gateway" um diverse Funktionen erweitert und stellt für kleine bis mittlere Installationen jetzt auch eine Compact Edition seines S3-Objekt-Storage für Tape bereit. Mit dieser Variante adressiert der Hersteller insbesondere Unternehmen, die ein Datenvolumen im einstelligen PByte-Bereich auf Tape-Medien speichern und verwalten wollen. [mehr]

Tipps & Tools

Download der Woche: Meld [15.10.2019]

Bei der Systemwartung finden sich immer wieder doppelt vorhandene Dateien und Ordner unter Windows. Diese sorgen nicht nur für Verwirrung, sondern rauben auch Zeit beim Säubern der Struktur auf dem Rechner. Mit dem kostenfreien Tool "Meld" lassen sich durch einen sogenannten "Zwei- und Drei-Wege-Vergleich" sowohl von Files als auch Verzeichnissen die nicht mehr benötigten Daten ermitteln. [mehr]

Backupserver absichern [6.10.2019]

Backupserver spielen in vielen Unternehmen eine wichtige Rolle, wenn es darum geht, geschäftskritische Informationen mit einer Backup-Software vor dem Verlust zu schützen. Dieser Tipp verrät, wie sich der Backupserver mithilfe von Veritas Backup Exec am besten sichern und wiederherstellen lässt. [mehr]

Buchbesprechung

Handbuch Online-Shop

von Alexander Steireif, Rouven Rieker, Markus Bückle

Anzeigen