Fachartikel

Seite 2 - Gründe für hyperkonvergenten Sekundärspeicher

Verteiltes Dateisystem bietet Vorteile
Um inkrementelles und im Prinzip beliebiges Wachstum in einer Scale-out-Architektur ermöglichen zu können, bedarf es eines intelligenten, verteilten Dateisystems mit den folgenden Eigenschaften:

  • Daten schnell und zuverlässig auf Cluster aus Standard-x86-Komponenten (physisch im lokalen RZ oder virtuell in beliebigen Cloudumgebungen) zu verteilen
  • Verteilte Metadaten-Strukturen, die speichereffizient und flexibel sind
  • Breite Speicherprotollbasis für optimale Konnektivität (SMB, NFS und S3)
  • QoS-Mechanismen bereitstellen
  • Ausfall einzelner Komponenten als Norm hinnehmen und Selbstheilungs-Mechanismen zu Verfügung stellen
Eine Web-Scale-Scale-out-Architektur hat – neben der Verwendung von Standardkomponenten – den großen Vorteil, dass Unternehmen mit einer Mindest-Konfiguration, die den aktuellen Kapazitäts- und Performance-Anforderungen entspricht, beginnen und bei Bedarf schrittweise erweitern können. Das verteilte Filesystem sollte so gestaltet sein, dass es die Daten und die Systemlast gleichmäßig innerhalb der existierenden Knoten verteilt. Zudem sollten entsprechende Algorithmen für Konsens und Konsistenz zum Einsatz kommen, und zwar nach dem Ansatz der strikten Konsistenz: ein Schreibvorgang wird erst an die höhere Schicht quittiert, sobald mindestens zwei Kopien (im Falle von RF2) der Daten an unterschiedlichen Stellen im Cluster geschrieben sind.

Daraus ergeben sich in Kombination mit intelligenten Adressierungsverfahren (virtuelle IP Adressen für den Zugriff aufs Dateisystem) diverse Vorteile: Fällt zum Beispiel während der Erstellung eines Backups ein Knoten aus, so bleibt die Backupoperation davon unberührt, da infolge der strikten Konsistenz sichergestellt ist, dass mindestens eine valide Kopie der bereits geschriebenen Daten vorhanden ist und somit keine Notwendigkeit besteht, den Backupjob abzubrechen und neu zu starten – zusätzliche Last auf den Primärsystemen und damit verbundene Risiken lassen sich so vermieden. Analoges gilt für den Restore-Vorgang.
Intelligente Snapshots und Erasure Coding
Intelligente Snapshot-Verfahren (etwa SnapTree) eröffnen die Möglichkeit, eine beliebige Anzahl von Snapshots zu generieren, die lediglich eine feste Anzahl an Ebenen traversieren müssen, um an die Daten zukommen (im Gegensatz zu einer stetig steigenden Anzahl an Schritten bei herkömmlichen Verfahren). Solche Verfahren eröffnen auch die Möglichkeit eines sogenannten Instant-Mass-Restore, das heißt im Fall des kompletten Ausfalls eines Primärsystems lassen sich hunderte oder mehr VMs quasi gleichzeitig restaurieren, indem die Snapshots dem Hypervisor über Shares auf den Sekundärspeicher-Systemen präsentiert werden. Die VMs lassen sich hochfahren und dann per Storage-vMotion auf die Primärsysteme verschieben, sobald diese wieder verfügbar sind oder ein DR-Rechenzentrum aktiviert wird. Hier geht es in erster Linie nicht um Performance, sondern darum, die systemkritischen Dienste verfügbar zu machen, um erst danach andere Service wieder hochzufahren.

In Zeiten stetig steigender Datenmengen ist Dateneffizienz ein nicht zu unterschätzender Faktor bei der Kostenkontrolle. Datendeduplikation mit variabler Blocklänge und Datenkompression sind wichtige Elemente in diesem Zusammenhang. Ein verteiltes Scale-out-Dateisystem ermöglicht einen möglichst weiten Focus, sodass sich die Speichereffizienz optimal steigern lässt. Neben den üblichen Verfahren für die Redundanz der geschriebenen Daten (Replikation mit RF2 oder RF3) ist via Erasure Coding – bei etwas erhöhtem Rechenaufwand – das gleiche Ziel bei weniger Bedarf an Speicherplatz erreichbar.

Unterschiedliche Silos zusammenführen
Eine vorab beschriebene Plattform lässt sich als sogenanntes Target Storage für existierende Backupumgebungen integrieren. Erweitern Unternehmen eine solche Plattform um einen weiteren Software-Layer, können über eine API-Integration virtuelle Umgebungen gesichert werden. Über Agents und andere Adapter lassen sich physische Server oder sehr spezifische virtualisierte Umgebungen an eine Plattform anbinden und sichern. Eine entsprechende Implementierung des Filesystems vorausgesetzt, lässt sich eine solche Plattform auch als Speicher oder Data Lake für unterschiedliche Speicheranwendungen einsetzen.

Eine native Cloud-Integration kann dafür sorgen, dass Cloud-Repositorien als weiterer Storage-Tier oder für Archivierungszwecke einsetzbar sind. Kombiniert mit der vorab beschriebenen Snapshot-Technologie, lassen sich schnell und einfach Klone zum Beispiel von VMs erstellen, die für Test/Dev nutzbar sind (indem diese einem externe Hypervisor dargereicht werden). Nutzen Organisationen die verfügbare Rechenleistung der physischen oder virtuellen Knoten, um Daten beim Einspielen zu indizieren, können sie diese Erkenntnisse für den Bereich Recovery und Data Analytics nutzen.

Fazit
Die Fokussierung auf einen Software-definiertes Design-Paradigma lässt die Grenzen zwischen physischem Rechenzentrum und Public Cloud verschwinden – das, was mit physischen Standardkomponenten aufgebaut werden kann, lässt sich mit Virtual Machine Instances gleichermaßen in der Cloud aufbauen und eröffnet dem IT Verantwortlichen neue Freiheitsgrade in der Gestaltung seiner IT Landschaft.

Seite 1: Fehlende Visibilität und vernachlässigtes Recovery
Seite 2: Unterschiedliche Silos zusammenführen

<< Vorherige Seite Seite 2 von 2
13.06.2018/ln/Thomas Boele, Sr. Director, Systems Engineering EMEA bei Cohesity

Nachrichten

8-TByte-SSD in schlankem Gewand [21.06.2018]

Mit dem Modell 'NF1 SSD' stellt Samsung einen neuen NVMe-Flash-Speicher mit hoher Dichte vor. Insgesamt 8 TByte finden Platz auf dem Speicherriegel, der unter dem Formfaktor 'NGSFF' firmiert und damit nur geringfügig größer ausfällt als M.2-SSDs. [mehr]

Thomas-Krenn schmiedet hyperkonvergentes System [19.06.2018]

Thomas-Krenn nimmt mit der 'Proxmox Ceph Appliance' ein hoch skalierbares hyperkonvergentes System in sein Portfolio auf. Die Appliance besteht aus einem Cluster mit drei Nodes und einem 10-GBit-Switch. Die Software und der Ceph-Cluster werden dabei vorkonfiguriert ausgeliefert. [mehr]

Tipps & Tools

Einfache Synchronisierung von Ordnern [15.06.2018]

Für eine saubere Synchronisation von Ordnern auf dem lokalen System oder zwischen Servern lohnt ein Blick auf das kostenfreie Tool 'SimplySync Backup'. Bei dem Programm handelt es sich um eine intuitive Backup- und Synchronisierungssoftware, die Dateien zum entsprechenden Zielpfad kopiert. Das Werkzeug ist portabel sowie schnell und einfach zu bedienen. Insgesamt stehen vier Backup- beziehungsweise Sync-Methoden zur Auswahl. [mehr]

Speicherplatzwarnung einfach abschalten [7.06.2018]

Vor allem wer regelmäßig mit Recovery- oder anderen internen Festplattenpartitionen arbeitet, die in der Regel kleiner ausfallen als die Hauptpartition, stößt unter Umständen auf die Speicherplatzwarnung von Windows 10. Diese zeigt sich vor allem, wenn der Speicherplatz auf einer Partition mit verknüpften Laufwerksbuchstaben zur Neige geht. Mit ein paar Handgriffen können Sie diese Meldung bei Bedarf abschalten. [mehr]

Buchbesprechung

Anzeigen