Seite 2 - Latenzen minimieren bei der Cloudmigration

Lesezeit
3 Minuten
Bis jetzt gelesen

Seite 2 - Latenzen minimieren bei der Cloudmigration

16.01.2019 - 14:00
Veröffentlicht in:
Warum ein NAS-Share in der Cloud wichtig ist
Ein Objektspeicher wie S3 stellt sich in bestimmten Anwendungsfällen nicht als der ideale Ablageort der kopierten Daten heraus. Das trifft für mehrere Hadoop-Cluster zu, die ein Unternehmen beispielsweise für Produktion, Entwicklung, Tests oder Analytics nutzen will. Diese Cluster greifen immer wieder auf die gleichen Daten zurück. Der Amazon-Mechanismus erzeugt nun eine Kopie für jedes Cluster, das sich eine Firma baut. Es geht auch eleganter und effizienter, wobei nicht in die Hadoop-Cluster kopiert wird. So erlaubt ein Adapter mit einem NFS-Share im Hintergrund, die Cluster schneller hochzufahren. Die Daten werden nur einmal im NFS-Share gespeichert. Es entsteht eine Art Data Lake, der für einen schnellen Datenzugriff sorgt und um den sich zügig neue Cluster positionieren lassen, ohne groß in der Cloud Daten kopieren zu müssen. Der NetApp-In-Place-Analytics-Adapter etwa zählt zu den Tools, die die Daten von einem NFS-Share holen.

Wie wichtig ein NAS-Share ist, der auf den Netzwerkprotokollen NFS oder der Microsoft-Variante SMB basiert, verdeutlich ein Blick in die Applikationslandschaften: Viele Anwendungen, insbesondere Fachapplikationen und Datenbanken, benötigen einen geteilten Speicher. Wer mehrere Datenbanken betreibt, kommt ohne Transport Directories nicht aus, um Daten auszutauschen. Werden Datenbanken nun über NFS gemountet, ergeben sich in virtuellen Umgebungen viele Vorteile: darunter das einfache Vergrößern oder Verkleinern des NFS-Shares, direkter Zugriff auf Snapshots, Backups in Sekundenschnelle oder kürzeres RTO. Ein Großteil der Applikationen beherrscht nur ein Filesystem, will sozusagen "File open, read, write and close" abarbeiten oder Daten zwischen mehreren Instanzen austauschen. Solche Applikationen sinnvoll in die Cloud zu migrieren, setzt einen NAS-Dienst voraus.

NAS-Dienste der Cloudprovider
Die Hyperscaler setzen auf verschiedene Netzwerkprotokolle. Amazon bietet mit EFS (Elastic File System) NFS-basierte Datenspeicherung. Aufgrund der Latenzen des NFS-Dienstes lassen sich jedoch nur große Dateien komfortabel lesen und schreiben. Intensive Nutzung und kleine Files machen den Service extrem langsam. Viele Workloads scheiden damit aus, über EFS auf die Daten zuzugreifen. Das Netzwerkprotokoll SMB verlangt bei AWS etwas Aufwand. Wer dort über SMB Daten teilen will, muss sich einen Windows-Server provisionieren und als Fileserver einrichten. Betrieb, Backup, Recovery und Hochverfügbarkeit sind jedoch ausbaufähig.

Auch bei Google finden Anwender einen NFS-Dienst, der schnell in Skalierungslimits läuft. SMB gibt es nicht. Microsoft selbst fehlte bisher bei Azure noch ein NFS-Dienst. Ausweichen ließ sich auf den SBM-Dienst, der jedoch vor allem bei Performance sowie Zugriffsrechten wenig überzeugt und sich stark von seiner On-Premises-Variante unterscheidet. Das stört die Betriebsprozesse derjenigen, die den Dienst lokal nutzen. Doch Microsoft hat nun einen eigenen NFS-Dienst am Start, der sich Azure NetApp Files nennt. Wie der Name verrät, steckt darin die Expertise zum NAS-Betriebssystem ONTAP, das NetApp entwickelt hat – auch für die Cloud.

Zum geteilten Speicher in der Cloud kommen
Das Speicherbetriebssystem Cloud Volumes ONTAP läuft auf dem Hypervisor sowohl bei AWS als auch Google und macht zusätzliche Features wie solide Datenspeicherung, Snapshots, SnapMirror, Cloning, Datenreplikation, Datenreduktion und Speichereffizienz für den Speicher beim Hyperscaler nutzbar. Auf die Weise können Anwender NAS-Dienste nutzen und Datenbanken effizienter in der Cloud betreiben, wofür höherwertiges Erstellen von Snapshots und Klonen sorgen. Beides erfolgt Kapazitäts- und Performance-neutral. Die Snapshots stehen sofort für Backup und Recovery bereit.

Ein Klon von einem 10 TByte großen Datensatz belegt zunächst keinen Speicherplatz, erst wenn die Daten modifiziert werden. Cloud Volumes ONTAP eignet sich insbesondere für Anwender, die NetApp-Speichersysteme auch im eigenen Rechenzentrum nutzen. Unter der Voraussetzung lassen sich mit SnapMirror sowie Cloud Sync Daten zwischen On-Premises und der Cloud hin und her synchronisieren. Über die Konsole OnCommand Cloud Manager werden die Systeme in der Cloud provisioniert. Das Administrieren von Cloud Volumes ONTAP setzt Speicherwissen voraus.

Bei Cloud Volumes Service betreibt NetApp die Storage-Systeme. Eine Anwenderfirma bucht sich über AWS oder Google die Kapazität. Sie legt fest, ob die Datenmenge als ein NAS-Share auf NFS- oder SMB-Basis in die Cloud zum Hyperscaler exportiert wird. Über eine stark reduzierte Benutzeroberfläche lassen sich Snapshots und Klone machen oder Exportrichtlinien festlegen, wer auf was zugreifen und einstellen darf.

Fazit
Streben Unternehmen eine Cloudmigration an, ist ein Modell "Compute in der Cloud, Daten On-Prem" nur bei geringen Latenzen vertretbar. Zudem sollte die Applikation zugriffsarm sein. Die meisten Workloads erfüllen diese Kriterien nicht, weshalb von einem Auseinanderreißen eines Workloads abzuraten ist. Wer eine Anwendung sinnvoll in der Cloud betreiben will, muss sich genau anschauen, ob diese geteilte Filesysteme erfordert. Feststeht, dass die Verwaltung von File-Storage bei den Cloudprovidern nicht die Qualität bietet, die Nutzer von Shared Storage in virtuellen Umgebungen gewohnt sind. Generell schließt das technische Abklopfen, ob eine App in die Cloud gehört, noch die Ressourcenprüfung ein. Bekommt die virtuelle Maschine alles, was sie braucht? Außerdem ist die Lizenz für die Software auf ihre Gültigkeit in der Cloud zu prüfen. Dann macht sich die Cloud gerade bei wechselnden Workloads bezahlt.

Seite 1: Ein Workload wird nicht getrennt, oder?

<< Vorherige Seite Seite 2 von 2


ln/Oliver Krause, Cloud Solution Architect bei NetApp

Tags

Ähnliche Beiträge

Drei zentrale Herausforderungen für das Datenmanagement

Daten sind ein unverzichtbarer Vermögenswert für Unternehmen geworden. Für ITAdministratoren bedingt dies, neben fundamentalen Datenmanagement-Anforderungen, Veränderungen in den Bereichen Organisationsstruktur, Kultur und Leadership sowie Rollen und Skills voranzutreiben. Der Fachartikel zählt die drei größten Herausforderungen auf, vor denen Organisationen in Bezug auf Datenmanagement stehen.

Im Test: Power Admin Storage Monitor 9.3

Eine effiziente Planung der Storage-Landschaft und ihrer Verfügbarkeit setzt detailliertes Wissen über Beschaffenheit und Alter der gespeicherten Daten voraus. Power Admin Storage Monitor verspricht, den Datenbestand umfassend zu analysieren, laufend zu überwachen und automatisch auf Ereignisse zu reagieren. Dabei liegt der Schwerpunkt auf Windows, doch das flexible Tool bindet auch andere Speicher im Netzwerk per SNMP an.

All-Flash-Rechenzentrum beim Bio-Großhändler

Seit vielen Jahren arbeiten Storage-Anbieter daran, All-Flash-Systeme so zu konzipieren, dass sie sich nicht nur für Tier-1-Anwendungen, sondern zur Speicherung aller Daten im Rechenzentrum verwenden lassen. Das Ziel, dessen Erreichung vor allem die Anschaffungskosten im Weg standen, lautete: All-Flash-Data Center. Wie sieht es in der Praxis aus? Ein deutsches Handelsunternehmen berichtet erstmals über seine Alltagserfahrungen.