Fachartikel

Seite 2 - Gründe für hyperkonvergenten Sekundärspeicher

Verteiltes Dateisystem bietet Vorteile
Um inkrementelles und im Prinzip beliebiges Wachstum in einer Scale-out-Architektur ermöglichen zu können, bedarf es eines intelligenten, verteilten Dateisystems mit den folgenden Eigenschaften:

  • Daten schnell und zuverlässig auf Cluster aus Standard-x86-Komponenten (physisch im lokalen RZ oder virtuell in beliebigen Cloudumgebungen) zu verteilen
  • Verteilte Metadaten-Strukturen, die speichereffizient und flexibel sind
  • Breite Speicherprotollbasis für optimale Konnektivität (SMB, NFS und S3)
  • QoS-Mechanismen bereitstellen
  • Ausfall einzelner Komponenten als Norm hinnehmen und Selbstheilungs-Mechanismen zu Verfügung stellen
Eine Web-Scale-Scale-out-Architektur hat – neben der Verwendung von Standardkomponenten – den großen Vorteil, dass Unternehmen mit einer Mindest-Konfiguration, die den aktuellen Kapazitäts- und Performance-Anforderungen entspricht, beginnen und bei Bedarf schrittweise erweitern können. Das verteilte Filesystem sollte so gestaltet sein, dass es die Daten und die Systemlast gleichmäßig innerhalb der existierenden Knoten verteilt. Zudem sollten entsprechende Algorithmen für Konsens und Konsistenz zum Einsatz kommen, und zwar nach dem Ansatz der strikten Konsistenz: ein Schreibvorgang wird erst an die höhere Schicht quittiert, sobald mindestens zwei Kopien (im Falle von RF2) der Daten an unterschiedlichen Stellen im Cluster geschrieben sind.

Daraus ergeben sich in Kombination mit intelligenten Adressierungsverfahren (virtuelle IP Adressen für den Zugriff aufs Dateisystem) diverse Vorteile: Fällt zum Beispiel während der Erstellung eines Backups ein Knoten aus, so bleibt die Backupoperation davon unberührt, da infolge der strikten Konsistenz sichergestellt ist, dass mindestens eine valide Kopie der bereits geschriebenen Daten vorhanden ist und somit keine Notwendigkeit besteht, den Backupjob abzubrechen und neu zu starten – zusätzliche Last auf den Primärsystemen und damit verbundene Risiken lassen sich so vermieden. Analoges gilt für den Restore-Vorgang.
Intelligente Snapshots und Erasure Coding
Intelligente Snapshot-Verfahren (etwa SnapTree) eröffnen die Möglichkeit, eine beliebige Anzahl von Snapshots zu generieren, die lediglich eine feste Anzahl an Ebenen traversieren müssen, um an die Daten zukommen (im Gegensatz zu einer stetig steigenden Anzahl an Schritten bei herkömmlichen Verfahren). Solche Verfahren eröffnen auch die Möglichkeit eines sogenannten Instant-Mass-Restore, das heißt im Fall des kompletten Ausfalls eines Primärsystems lassen sich hunderte oder mehr VMs quasi gleichzeitig restaurieren, indem die Snapshots dem Hypervisor über Shares auf den Sekundärspeicher-Systemen präsentiert werden. Die VMs lassen sich hochfahren und dann per Storage-vMotion auf die Primärsysteme verschieben, sobald diese wieder verfügbar sind oder ein DR-Rechenzentrum aktiviert wird. Hier geht es in erster Linie nicht um Performance, sondern darum, die systemkritischen Dienste verfügbar zu machen, um erst danach andere Service wieder hochzufahren.

In Zeiten stetig steigender Datenmengen ist Dateneffizienz ein nicht zu unterschätzender Faktor bei der Kostenkontrolle. Datendeduplikation mit variabler Blocklänge und Datenkompression sind wichtige Elemente in diesem Zusammenhang. Ein verteiltes Scale-out-Dateisystem ermöglicht einen möglichst weiten Focus, sodass sich die Speichereffizienz optimal steigern lässt. Neben den üblichen Verfahren für die Redundanz der geschriebenen Daten (Replikation mit RF2 oder RF3) ist via Erasure Coding – bei etwas erhöhtem Rechenaufwand – das gleiche Ziel bei weniger Bedarf an Speicherplatz erreichbar.

Unterschiedliche Silos zusammenführen
Eine vorab beschriebene Plattform lässt sich als sogenanntes Target Storage für existierende Backupumgebungen integrieren. Erweitern Unternehmen eine solche Plattform um einen weiteren Software-Layer, können über eine API-Integration virtuelle Umgebungen gesichert werden. Über Agents und andere Adapter lassen sich physische Server oder sehr spezifische virtualisierte Umgebungen an eine Plattform anbinden und sichern. Eine entsprechende Implementierung des Filesystems vorausgesetzt, lässt sich eine solche Plattform auch als Speicher oder Data Lake für unterschiedliche Speicheranwendungen einsetzen.

Eine native Cloud-Integration kann dafür sorgen, dass Cloud-Repositorien als weiterer Storage-Tier oder für Archivierungszwecke einsetzbar sind. Kombiniert mit der vorab beschriebenen Snapshot-Technologie, lassen sich schnell und einfach Klone zum Beispiel von VMs erstellen, die für Test/Dev nutzbar sind (indem diese einem externe Hypervisor dargereicht werden). Nutzen Organisationen die verfügbare Rechenleistung der physischen oder virtuellen Knoten, um Daten beim Einspielen zu indizieren, können sie diese Erkenntnisse für den Bereich Recovery und Data Analytics nutzen.

Fazit
Die Fokussierung auf einen Software-definiertes Design-Paradigma lässt die Grenzen zwischen physischem Rechenzentrum und Public Cloud verschwinden – das, was mit physischen Standardkomponenten aufgebaut werden kann, lässt sich mit Virtual Machine Instances gleichermaßen in der Cloud aufbauen und eröffnet dem IT Verantwortlichen neue Freiheitsgrade in der Gestaltung seiner IT Landschaft.

Seite 1: Fehlende Visibilität und vernachlässigtes Recovery
Seite 2: Unterschiedliche Silos zusammenführen

<< Vorherige Seite Seite 2 von 2
13.06.2018/ln/Thomas Boele, Sr. Director, Systems Engineering EMEA bei Cohesity

Nachrichten

Plattformübergreifendes ReFS [29.08.2018]

Paragon Software veröffentlicht mit "ReFS for Windows" ein Werkzeug für den einheitlichen Zugriff auf ReFS-formatierte Datenträger über alle Windows-Varianten hinweg. Die Software, die sich stand-alone als auch integriert in die Infrastruktur betreiben lässt, adressiert Inkompatibiltäten, die bei der ReFS-Verwaltung auftreten, wenn unterschiedliche Releases von Windows darauf zugreifen. [mehr]

14 TByte auf neun Plattern [28.08.2018]

Toshiba bringt mit der 'MG07SCA'-Serie neue 14 und 12 TByte große, Helium-versiegelte HDDs der Enterprise-Klasse mit 12-GBit/s-SAS-Interface auf den Markt. Die Festplatten drehen mit 7.200rpm und basieren auf der Advanced-Format-Sector-Technologie. [mehr]

Tipps & Tools

Praktische Ablage für Webseiten [21.08.2018]

Oft stoßen Webnutzer auf interessante Seiten, die sie gerne später in Ruhe lesen möchten. Ein Weg sind Lesezeichen im Browser. Deutlich flexibler zeigt sich jedoch der Dienst 'Getpocket'. Dieser legt die zu merkenden URLs für eine spätere Verwendung einfach online ab, wobei auch Videos oder Bilder speicherbar sind. [mehr]

Standalone-Agent zur Datensicherung [10.08.2018]

Mit dem neuen 'Veeam Agent for Microsoft Windows' steht ab sofort ein neues Tool bereit, das auf Windows-Funktionalitäten aufsetzt und sichere Backup- und Wiederherstellungsroutinen ermöglicht. Im das Risiko von Datenverlust zu minimieren, lässt sich mit dem Werkzeug auch die Public Cloud als Zielort der Sicherung auswählen. Die Neuvorstellung ist für eine beliebige Anzahl von Endpunkten kostenlos. [mehr]

Buchbesprechung

VoIP Praxisleitfaden

von Jörg Fischer und Christian Sailer

Anzeigen