Fachartikel

Seite 2 - Latenzen minimieren bei der Cloudmigration

Warum ein NAS-Share in der Cloud wichtig ist
Ein Objektspeicher wie S3 stellt sich in bestimmten Anwendungsfällen nicht als der ideale Ablageort der kopierten Daten heraus. Das trifft für mehrere Hadoop-Cluster zu, die ein Unternehmen beispielsweise für Produktion, Entwicklung, Tests oder Analytics nutzen will. Diese Cluster greifen immer wieder auf die gleichen Daten zurück. Der Amazon-Mechanismus erzeugt nun eine Kopie für jedes Cluster, das sich eine Firma baut. Es geht auch eleganter und effizienter, wobei nicht in die Hadoop-Cluster kopiert wird. So erlaubt ein Adapter mit einem NFS-Share im Hintergrund, die Cluster schneller hochzufahren. Die Daten werden nur einmal im NFS-Share gespeichert. Es entsteht eine Art Data Lake, der für einen schnellen Datenzugriff sorgt und um den sich zügig neue Cluster positionieren lassen, ohne groß in der Cloud Daten kopieren zu müssen. Der NetApp-In-Place-Analytics-Adapter etwa zählt zu den Tools, die die Daten von einem NFS-Share holen.

Wie wichtig ein NAS-Share ist, der auf den Netzwerkprotokollen NFS oder der Microsoft-Variante SMB basiert, verdeutlich ein Blick in die Applikationslandschaften: Viele Anwendungen, insbesondere Fachapplikationen und Datenbanken, benötigen einen geteilten Speicher. Wer mehrere Datenbanken betreibt, kommt ohne Transport Directories nicht aus, um Daten auszutauschen. Werden Datenbanken nun über NFS gemountet, ergeben sich in virtuellen Umgebungen viele Vorteile: darunter das einfache Vergrößern oder Verkleinern des NFS-Shares, direkter Zugriff auf Snapshots, Backups in Sekundenschnelle oder kürzeres RTO. Ein Großteil der Applikationen beherrscht nur ein Filesystem, will sozusagen "File open, read, write and close" abarbeiten oder Daten zwischen mehreren Instanzen austauschen. Solche Applikationen sinnvoll in die Cloud zu migrieren, setzt einen NAS-Dienst voraus.
NAS-Dienste der Cloudprovider
Die Hyperscaler setzen auf verschiedene Netzwerkprotokolle. Amazon bietet mit EFS (Elastic File System) NFS-basierte Datenspeicherung. Aufgrund der Latenzen des NFS-Dienstes lassen sich jedoch nur große Dateien komfortabel lesen und schreiben. Intensive Nutzung und kleine Files machen den Service extrem langsam. Viele Workloads scheiden damit aus, über EFS auf die Daten zuzugreifen. Das Netzwerkprotokoll SMB verlangt bei AWS etwas Aufwand. Wer dort über SMB Daten teilen will, muss sich einen Windows-Server provisionieren und als Fileserver einrichten. Betrieb, Backup, Recovery und Hochverfügbarkeit sind jedoch ausbaufähig.

Auch bei Google finden Anwender einen NFS-Dienst, der schnell in Skalierungslimits läuft. SMB gibt es nicht. Microsoft selbst fehlte bisher bei Azure noch ein NFS-Dienst. Ausweichen ließ sich auf den SBM-Dienst, der jedoch vor allem bei Performance sowie Zugriffsrechten wenig überzeugt und sich stark von seiner On-Premises-Variante unterscheidet. Das stört die Betriebsprozesse derjenigen, die den Dienst lokal nutzen. Doch Microsoft hat nun einen eigenen NFS-Dienst am Start, der sich Azure NetApp Files nennt. Wie der Name verrät, steckt darin die Expertise zum NAS-Betriebssystem ONTAP, das NetApp entwickelt hat – auch für die Cloud.

Zum geteilten Speicher in der Cloud kommen
Das Speicherbetriebssystem Cloud Volumes ONTAP läuft auf dem Hypervisor sowohl bei AWS als auch Google und macht zusätzliche Features wie solide Datenspeicherung, Snapshots, SnapMirror, Cloning, Datenreplikation, Datenreduktion und Speichereffizienz für den Speicher beim Hyperscaler nutzbar. Auf die Weise können Anwender NAS-Dienste nutzen und Datenbanken effizienter in der Cloud betreiben, wofür höherwertiges Erstellen von Snapshots und Klonen sorgen. Beides erfolgt Kapazitäts- und Performance-neutral. Die Snapshots stehen sofort für Backup und Recovery bereit.

Ein Klon von einem 10 TByte großen Datensatz belegt zunächst keinen Speicherplatz, erst wenn die Daten modifiziert werden. Cloud Volumes ONTAP eignet sich insbesondere für Anwender, die NetApp-Speichersysteme auch im eigenen Rechenzentrum nutzen. Unter der Voraussetzung lassen sich mit SnapMirror sowie Cloud Sync Daten zwischen On-Premises und der Cloud hin und her synchronisieren. Über die Konsole OnCommand Cloud Manager werden die Systeme in der Cloud provisioniert. Das Administrieren von Cloud Volumes ONTAP setzt Speicherwissen voraus.

Bei Cloud Volumes Service betreibt NetApp die Storage-Systeme. Eine Anwenderfirma bucht sich über AWS oder Google die Kapazität. Sie legt fest, ob die Datenmenge als ein NAS-Share auf NFS- oder SMB-Basis in die Cloud zum Hyperscaler exportiert wird. Über eine stark reduzierte Benutzeroberfläche lassen sich Snapshots und Klone machen oder Exportrichtlinien festlegen, wer auf was zugreifen und einstellen darf.

Fazit
Streben Unternehmen eine Cloudmigration an, ist ein Modell "Compute in der Cloud, Daten On-Prem" nur bei geringen Latenzen vertretbar. Zudem sollte die Applikation zugriffsarm sein. Die meisten Workloads erfüllen diese Kriterien nicht, weshalb von einem Auseinanderreißen eines Workloads abzuraten ist. Wer eine Anwendung sinnvoll in der Cloud betreiben will, muss sich genau anschauen, ob diese geteilte Filesysteme erfordert. Feststeht, dass die Verwaltung von File-Storage bei den Cloudprovidern nicht die Qualität bietet, die Nutzer von Shared Storage in virtuellen Umgebungen gewohnt sind. Generell schließt das technische Abklopfen, ob eine App in die Cloud gehört, noch die Ressourcenprüfung ein. Bekommt die virtuelle Maschine alles, was sie braucht? Außerdem ist die Lizenz für die Software auf ihre Gültigkeit in der Cloud zu prüfen. Dann macht sich die Cloud gerade bei wechselnden Workloads bezahlt.

Seite 1: Ein Workload wird nicht getrennt, oder?

<< Vorherige Seite Seite 2 von 2
16.01.2019/ln/Oliver Krause, Cloud Solution Architect bei NetApp

Nachrichten

Durchsatzstarker Storage [8.09.2020]

Hewlett Packard Enterprise bringt die sechste Generation seines Einstiegs-Speichersystems "HPE Modular Smart Array" auf den Markt. Diese kommt mit einer neuen Hard- und Software-Architektur, die unter anderem deutlich mehr Leistung als die Vorgängergeneration verspricht. [mehr]

Neue Mini-SSD von Verbatim [7.09.2020]

Verbatim bringt die Store'n'Go-Mini-SSD nach Deutschland. Die sehr kleine, transportable SSD mit schwarzen 3D-Oberflächendesign ist in den Kapazitäten 512 GByte und 1 TByte verfügbar und wiegt 35 Gramm. Dank USB 3.2 Gen 1 Anschluss sind Übertragungsgeschwindigkeiten von bis zu 5 GBit/s möglich. [mehr]

Tipps & Tools

Im Test: EnterpriseDB Postgres [30.07.2020]

In vielen Unternehmen gilt eine Art Datenbank-Oligopol: Entweder kommt Oracle oder MySQL zum Einsatz. EnterpriseDB will das mit seiner gleichnamigen PostgreSQL-Distribution ändern. EnterpriseDB Postgres erwies sich im Test als robuste relationale Datenbank mit vielen Enterprise-Features, die sich hinter Oracle & Co. keineswegs zu verstecken brauchen. Vor allem in Sachen Migration und Kompatibilität konnte uns die Plattform überzeugen und auch das Backup-Tool erhielt unsere Zustimmung. [mehr]

Hochverfügbare SQL-Cluster in der Google-Cloud [23.07.2020]

SQL-Server-Failovercluster-Instanzen stellen die Hochverfügbarkeit von SQL-Servern sicher. Um der Anforderung an gemeinsam nutzbaren Speicher in der Google-Cloud gerecht zu werden, empfiehlt der Cloudprovider Storage Spaces Direct. Die Krux dabei: Die Einrichtung erfordert, dass sich alle VMs und der Speicher im selben Rechenzentrum befinden. Hochverfügbarkeit gewährleistet Google jedoch nur bei standortübergreifenden Konfigurationen. Wie sich dieses Dilemma lösen lässt, verrät unsere Schritt-für-Schritt-Anleitung. [mehr]

Buchbesprechung

Microsoft Office 365

von Markus Widl

Anzeigen