Fachartikel

Seite 2 - Latenzen minimieren bei der Cloudmigration

Warum ein NAS-Share in der Cloud wichtig ist
Ein Objektspeicher wie S3 stellt sich in bestimmten Anwendungsfällen nicht als der ideale Ablageort der kopierten Daten heraus. Das trifft für mehrere Hadoop-Cluster zu, die ein Unternehmen beispielsweise für Produktion, Entwicklung, Tests oder Analytics nutzen will. Diese Cluster greifen immer wieder auf die gleichen Daten zurück. Der Amazon-Mechanismus erzeugt nun eine Kopie für jedes Cluster, das sich eine Firma baut. Es geht auch eleganter und effizienter, wobei nicht in die Hadoop-Cluster kopiert wird. So erlaubt ein Adapter mit einem NFS-Share im Hintergrund, die Cluster schneller hochzufahren. Die Daten werden nur einmal im NFS-Share gespeichert. Es entsteht eine Art Data Lake, der für einen schnellen Datenzugriff sorgt und um den sich zügig neue Cluster positionieren lassen, ohne groß in der Cloud Daten kopieren zu müssen. Der NetApp-In-Place-Analytics-Adapter etwa zählt zu den Tools, die die Daten von einem NFS-Share holen.

Wie wichtig ein NAS-Share ist, der auf den Netzwerkprotokollen NFS oder der Microsoft-Variante SMB basiert, verdeutlich ein Blick in die Applikationslandschaften: Viele Anwendungen, insbesondere Fachapplikationen und Datenbanken, benötigen einen geteilten Speicher. Wer mehrere Datenbanken betreibt, kommt ohne Transport Directories nicht aus, um Daten auszutauschen. Werden Datenbanken nun über NFS gemountet, ergeben sich in virtuellen Umgebungen viele Vorteile: darunter das einfache Vergrößern oder Verkleinern des NFS-Shares, direkter Zugriff auf Snapshots, Backups in Sekundenschnelle oder kürzeres RTO. Ein Großteil der Applikationen beherrscht nur ein Filesystem, will sozusagen "File open, read, write and close" abarbeiten oder Daten zwischen mehreren Instanzen austauschen. Solche Applikationen sinnvoll in die Cloud zu migrieren, setzt einen NAS-Dienst voraus.
NAS-Dienste der Cloudprovider
Die Hyperscaler setzen auf verschiedene Netzwerkprotokolle. Amazon bietet mit EFS (Elastic File System) NFS-basierte Datenspeicherung. Aufgrund der Latenzen des NFS-Dienstes lassen sich jedoch nur große Dateien komfortabel lesen und schreiben. Intensive Nutzung und kleine Files machen den Service extrem langsam. Viele Workloads scheiden damit aus, über EFS auf die Daten zuzugreifen. Das Netzwerkprotokoll SMB verlangt bei AWS etwas Aufwand. Wer dort über SMB Daten teilen will, muss sich einen Windows-Server provisionieren und als Fileserver einrichten. Betrieb, Backup, Recovery und Hochverfügbarkeit sind jedoch ausbaufähig.

Auch bei Google finden Anwender einen NFS-Dienst, der schnell in Skalierungslimits läuft. SMB gibt es nicht. Microsoft selbst fehlte bisher bei Azure noch ein NFS-Dienst. Ausweichen ließ sich auf den SBM-Dienst, der jedoch vor allem bei Performance sowie Zugriffsrechten wenig überzeugt und sich stark von seiner On-Premises-Variante unterscheidet. Das stört die Betriebsprozesse derjenigen, die den Dienst lokal nutzen. Doch Microsoft hat nun einen eigenen NFS-Dienst am Start, der sich Azure NetApp Files nennt. Wie der Name verrät, steckt darin die Expertise zum NAS-Betriebssystem ONTAP, das NetApp entwickelt hat – auch für die Cloud.

Zum geteilten Speicher in der Cloud kommen
Das Speicherbetriebssystem Cloud Volumes ONTAP läuft auf dem Hypervisor sowohl bei AWS als auch Google und macht zusätzliche Features wie solide Datenspeicherung, Snapshots, SnapMirror, Cloning, Datenreplikation, Datenreduktion und Speichereffizienz für den Speicher beim Hyperscaler nutzbar. Auf die Weise können Anwender NAS-Dienste nutzen und Datenbanken effizienter in der Cloud betreiben, wofür höherwertiges Erstellen von Snapshots und Klonen sorgen. Beides erfolgt Kapazitäts- und Performance-neutral. Die Snapshots stehen sofort für Backup und Recovery bereit.

Ein Klon von einem 10 TByte großen Datensatz belegt zunächst keinen Speicherplatz, erst wenn die Daten modifiziert werden. Cloud Volumes ONTAP eignet sich insbesondere für Anwender, die NetApp-Speichersysteme auch im eigenen Rechenzentrum nutzen. Unter der Voraussetzung lassen sich mit SnapMirror sowie Cloud Sync Daten zwischen On-Premises und der Cloud hin und her synchronisieren. Über die Konsole OnCommand Cloud Manager werden die Systeme in der Cloud provisioniert. Das Administrieren von Cloud Volumes ONTAP setzt Speicherwissen voraus.

Bei Cloud Volumes Service betreibt NetApp die Storage-Systeme. Eine Anwenderfirma bucht sich über AWS oder Google die Kapazität. Sie legt fest, ob die Datenmenge als ein NAS-Share auf NFS- oder SMB-Basis in die Cloud zum Hyperscaler exportiert wird. Über eine stark reduzierte Benutzeroberfläche lassen sich Snapshots und Klone machen oder Exportrichtlinien festlegen, wer auf was zugreifen und einstellen darf.

Fazit
Streben Unternehmen eine Cloudmigration an, ist ein Modell "Compute in der Cloud, Daten On-Prem" nur bei geringen Latenzen vertretbar. Zudem sollte die Applikation zugriffsarm sein. Die meisten Workloads erfüllen diese Kriterien nicht, weshalb von einem Auseinanderreißen eines Workloads abzuraten ist. Wer eine Anwendung sinnvoll in der Cloud betreiben will, muss sich genau anschauen, ob diese geteilte Filesysteme erfordert. Feststeht, dass die Verwaltung von File-Storage bei den Cloudprovidern nicht die Qualität bietet, die Nutzer von Shared Storage in virtuellen Umgebungen gewohnt sind. Generell schließt das technische Abklopfen, ob eine App in die Cloud gehört, noch die Ressourcenprüfung ein. Bekommt die virtuelle Maschine alles, was sie braucht? Außerdem ist die Lizenz für die Software auf ihre Gültigkeit in der Cloud zu prüfen. Dann macht sich die Cloud gerade bei wechselnden Workloads bezahlt.

Seite 1: Ein Workload wird nicht getrennt, oder?

<< Vorherige Seite Seite 2 von 2
16.01.2019/ln/Oliver Krause, Cloud Solution Architect bei NetApp

Nachrichten

SSDs für große Umgebungen [21.02.2020]

KIOXIA bringt seine neuen SSDs der CM6- und CD6-Serie für Unternehmen und Hyperscale-Rechenzentren auf den Markt. Der verwendete PCIe-4.0-Standard verdoppelt laut Hersteller die Leistung von Client-, Server- und Speichersystemen und erhöht die Geschwindigkeit auf bis zu 6,9 GByte/s. [mehr]

Hochverfügbares All-Flash-NAS [17.02.2020]

QNAP erweitert sein NAS-Portfolio für den Enterprise-Bereich um das All-Flash-Array "ES2486dc" mit 24 Festplatteneinschüben. Mit seiner dualen ActiveActive-Architektur soll das Gerät für nahezu störungsfreie Hochverfügbarkeit sorgen. [mehr]

Tipps & Tools

Download der Woche: Meld [15.10.2019]

Bei der Systemwartung finden sich immer wieder doppelt vorhandene Dateien und Ordner unter Windows. Diese sorgen nicht nur für Verwirrung, sondern rauben auch Zeit beim Säubern der Struktur auf dem Rechner. Mit dem kostenfreien Tool "Meld" lassen sich durch einen sogenannten "Zwei- und Drei-Wege-Vergleich" sowohl von Files als auch Verzeichnissen die nicht mehr benötigten Daten ermitteln. [mehr]

Backupserver absichern [6.10.2019]

Backupserver spielen in vielen Unternehmen eine wichtige Rolle, wenn es darum geht, geschäftskritische Informationen mit einer Backup-Software vor dem Verlust zu schützen. Dieser Tipp verrät, wie sich der Backupserver mithilfe von Veritas Backup Exec am besten sichern und wiederherstellen lässt. [mehr]

Buchbesprechung

Technik der IP-Netze

von Anatol Badach und Erwin Hoffmann

Anzeigen