Grundlagen

Storage-Virtualisierung

In unserer Grundlagen-Rubrik erklären wir wichtige Aufgaben und Technologien aus dem Arbeitsalltag eines Netzwerk- und Systemadministrators. Hier erfahren Sie anhand prägnanter Erklärungen zu den wichtigsten Begriffen des jeweiligen Themenfeldes Hintergründe und Zusammenhänge in kompakter, praxisnaher Form.
Die Virtualisierung hat sich in den letzten Jahren zu einer der wichtigsten Technologien in der IT entwickelt. Wie bei der Server-Virtualisierung und der Desktop-Virtualisierung geht es auch bei der Storage-Virtualisierung primär darum, im Rechenzentrum für Konsolidierung zu sorgen und dem IT-Administrator in Zeiten rasanten Datenwachstums das Management der Speicherumgebung zu vereinfachen.

Grundsätzlich zeichnet sich die Storage-Virtualisierung durch die Trennung des logischen Speicherorts vom physikalischen Speicher aus. Die eingesetzte Virtualisierungslösung sorgt dann durch den Einsatz von Zuordnungstabellen (Mapping) dafür, dass Nutzer stets über die gleichen Pfade auf die benötigten Daten zugreifen können – unabhängig davon, auf welcher Festplatte oder welchem LUN die Informationen physikalisch liegen. Da in größeren Unternehmensnetzwerken meist ein Block-basiertes SAN zum Einsatz kommt, ist meist Blockvirtualisierung gemeint, wenn es um das Thema Speichervirtualisierung geht.

Blockvirtualisierung im SAN
Bei der Blockvirtualisierung speichert die Virtualisierungslösung die Blöcke aller Festplatten in einer Liste. Diese Tabelle wird auch als "Mapping Table" bezeichnet. Dieser ist zu entnehmen, wo genau sich ein bestimmter Datenblock befindet. Die physikalische Adresse dieses Datenblocks hält das Virtualisierungssystem anhand des "LUN Identifier" beziehungsweise der "Logical Block Address" fest. Durch diese Liste ist es möglich, logische Festplatten unabhängig vom Festplatten-Controller des Speichersystems zu verschieben, zu kopieren, zu spiegeln oder zu replizieren. Diese Adresstabellen werden auch Meta-Daten genannt und leiten einen I/O-Request zum tatsächlichen Speicherort der gesuchten Information weiter.

Hand in Hand mit der Blockvirtualisierung gehen einige Funktionen, die das Speichermanagement erleichtern sollen. So soll etwa Thin Provisioning die Auslastung des SAN verbessern, indem Nutzern oder Gruppen nur so viel Speicher zur Verfügung gestellt wird wie aktuell benötigt. Wachsen die Anforderungen an den Speicherplatz, lässt sich die zulässige Quote schnell und bei Bedarf automatisiert erhöhen. Zu den weiteren Möglichkeiten der Blockvirtualisierung zählt das sogenannte Pooling, das die Zusammenfassung unterschiedlicher Speichersysteme zu einem Storage-Pool erlaubt. Im Idealfall ist es auf diesem Weg möglich, auch heterogene Storage-Systeme als ein Speicher anzusprechen und unter einer gemeinsamen Oberfläche zu verwalten.

Vor- und Nachteile der Blockvirtualisierung
Als ein Hauptvorteil der Blockvirtualisierung gilt die Möglichkeit, virtualisierte Daten problemlos und für den Nutzer unsichtbar verschieben und migrieren zu können. Ändert sich der physikalische Speicherort eines Blocks, wird dies lediglich in der Mapping Table vermerkt. Der Host, der auf diese Adressliste zugreift, muss aber nicht über die veränderte physikalische Position der Daten informiert werden, da er im Rahmen der I/O-Redirection anhand der Metadaten automatisch zum korrekten Speicherort geleitet wird.

Als weiterer Pluspunkt der Blockvirtualisierung ist die verbesserte Auslastung der Kapazitäten zu sehen. Da sich Speicherplatz etwa durch Thin Provisioning quasi ad hoc und dem Bedarf angepasst zuteilen lässt, wird der Überprovisionierung wirksam ein Riegel vorgeschoben. Befürworter der Blockvirtualisierung führen zudem an, dass sich durch eine einheitliche Virtualisierungsschicht auch heterogene Speichersysteme gemeinsam verwalten lassen und es so zu einer deutlichen Storage-Administration kommt.

Als Nachteile der Blockvirtualisierung wird oft die gestiegene Komplexität genannt, die vor allem durch das Generieren und Verwalten von Meta-Daten entsteht. Da nur die Virtualisierungslösung weiß, wo genau sich die gesuchten Blöcke befinden, wird diese zum Single Point of Failure. Außerdem kann es zu Performance-Problemen kommen – durch den zusätzlichen Overhead beim Verarbeiten der Metadaten kann es zu Engpässen bei der I/O-Redirection kommen, die das gesamte Speichersystem verlangsamen. Außerdem mahnen Kritiker der Blockvirtualisierung an, dass sich durch eine gemeinsame Virtualisierungsschicht heterogene Systeme nur in der Theorie gemeinsam verwalten ließen und proprietäre Produkte der Hersteller zur Speichervirtualisierung eben nicht konvergent wären.

Dateivirtualisierung und Unified Storage
Analog zur Blockvirtualisierung lässt sich natürlich auch in File-basierten Storage-Systemen Virtualisierung betreiben. Auch hier wird eine Abstraktionsschicht zwischen Client und File-Server eingezogen, die dafür sorgt, dass der Zugriff auf Dateien unabhängig von deren physikalischem Speicherort erfolgen kann. Da unstrukturierte, File-basierte Daten stark im Anstieg sind, hält auch dieser Ansatz viel Potential zur Konsolidierung bereit. Durch eine globale Erfassung von Dateien und deren Strukturierung lässt sich etwa durch automatisches Tiering – die Zuweisung von Dateien zu unterschiedlich schnellen Speicherebenen – dafür sorgen, dass Nutzer auf wichtige Daten stets mit einer hohen Performance zugreifen können. Zudem stellt sich die unternehmensweite Suche nach bestimmten Dateien vereinfacht dar, wenn alle Files in einer Adresstabelle erfasst sind.

Im Rahmen der Speichervirtualisierung fällt zudem oder der Begriff Unified Storage. Bei diesem Ansatz geht es darum, Block- (SAN) und Datei-basierten Speicher (NAS) in einem System zu kombinieren und die Vorteile der Virtualisierung für beide Speicherarten nutzbar zu machen. Als Nebeneffekt zur Virtualisierung soll dies Administratoren entlasten, indem nicht mehrere Systeme mit spezifischen Protokollen, Kabelsystemen und einzigartigem Management-Interface zu warten sind. Auch hier aber sind wieder Performance-Problemen denkbar, wenn etwa systemkritische Datenbanken zusammen mit dem stetig wachsenden unstrukturierten Daten virtualisiert auf einer Maschine liegen.

Software-defined Storage und Hyperkonvergenz
Schon seit Jahren verbreitet sich SDS (Software-defined Storage). Diese Entwicklung stellt eine besonders weitreichende Form der Storage-Virtualisierung und einen Teil der Rechenzentrumsvirtualisierung dar: Nicht mehr nur die Storage-Hardware ist hier virtualisiert. Vielmehr werden die Dienste, die der vorhandene Storage bereitstellt, von den einzelnen Storage-Devices gelöst und über davon unabhängige Software, die auf x86-Standardhardware läuft, bereitgestellt.

Von SDS versprechen sich Unternehmen sinkende Storage-Kosten, da keine teuren proprietären Systeme mehr nötig sind, sondern Standardspeicher wie Festplatten- oder Flash-Pools ausreichen. Speicherdienste wie Deduplizierung et cetera stellt die SDS-Software bereit. Software-defined Storage begünstigt zudem fortschrittliche Redundanz- und Hochverfügbarkeitskonzepte wie Erasure Coding, da sie sich per Software auf die angeschlossenen, in der Infrastruktur verteilten Systeme anwenden lassen.

Da ist es kein Wunder, dass heute nahezu jeder Storage-Anbieter SDS-Lösungen im Angebot hat beziehungsweise bisherige auf SDS umstrickt. Paradebeispiel dafür ist VMware mit vSAN. Weitere Beispiele: SANsymphony von Data Core, Spectrum Scale von IBM oder aus dem Open-Source-Bereich Ceph und Gluster. Der Markt für SDS-Lösungen wächst entsprechend stark. So gehen die Analysten von Mordor Intelligence bis 2025 von einem Wachstum von 25,8 Prozent jährlich aus. 2019 lag das Marktvolumen bei 9,4 Milliarden Dollar, für 2025 dagegen lautet die Prognose 37,24 Milliarden US-Dollar.

Hyperkonvergente Umgebungen nutzen allesamt SDS. Denn diese virtualisieren die gesamte IT-Infrastruktur (Server, Storage, Netzwerk) und steuern sie komplett über einen Hypervisor. Die Hardware besteht aus vorkonfigurierten Infrastrukturblöcken. Die Infrastruktur skaliert horizontal durch das Hinzufügen neuer Blöcke. Nahezu alle großen Hersteller haben heute hyperkonvergente Produkte im Angebot. Beispiele sind Nutanix, HPE SimpliVity oder HyperFlex von Cisco. VMware hat als SDS-Produkt beispielsweise vSAN ab Version 6.6 auf dem Markt. Dell EMC nutzt für seine hyperkonvergenten XC-Produkte eigene Hardware und Nutanix-Software.

Und während Virtualisierung ein technologisches Konzept ist, handelt es sich bei der Public Cloud eher um eine Erbringungsform, nämlich der IT-Service-Erbringung durch einen internen oder externen Dienstleister in Form vielfältiger Services, häufig mit Selbstbedienung. Public-Cloud-Dienste laufen allerdings in der Regel auf einer weitgehend oder vollständig softwaredefinierten Infrastruktur, die definitionsgemäß durchgängig virtualisiert ist.
16.06.2021/ln

Nachrichten

18-TByte-Festplatten dank Mikrowellen-Technologie [16.09.2021]

Toshiba Electronics Europe hat dem Portfolio seiner N300-NAS- und X300-Performance-Festplatten neue 18-TByte-Modelle hinzugefügt. Die beiden neuen Laufwerke arbeiten auf Basis der FC-MAMR-Technologie, die der Hersteller Anfang dieses Jahres angekündigt hat. [mehr]

Datenlieferservice [18.08.2021]

Mit dem neuen HiDrive Share bietet STRATO jetzt einen Dienst, der erlaubt, große Dateien kostenlos zu teilen. Für das Hoch- und Herunterladen von Dateien ist dabei keine E-Mail-Adresse nötig und der Transfer erfolgt verschlüsselt. Anschließend stehen die Files dann bis zu einer Woche über einen sicher generierten Link zur Verfügung. Der kostenlose Dienst stellt pro Upload zwei GByte Speicher für beliebig viele Dateien zur Verfügung. [mehr]

Tipps & Tools

Download der Woche: BleachBit [15.09.2021]

Im Haushalt ist Bleach durch seinen scharfen Geruch gefürchtet, am Rechner kann eine gründliche Reinigung von überlaufenden Festplatten und anderen Speicher-Ressourcen allerdings auch nicht schaden. Mit dem kostenfreien Tool "BleachBit" untersuchen Sie Ihr Windows- oder Linux-System nach nicht mehr benötigten Dateien und löschen diese anschließend sicher. Neben mehr Speicherplatz bringt das in der Regel auch eine Verbesserung der Performance. [mehr]

MariaDB Community Server 10.6 erweitert JSON- und Oracle-Kompatibilität [2.07.2021]

MariaDB hat seine relationale Open-Source-Datenbank einem Update unterzogen. Die neue Version 10.6 erweitert die JSON-Tabellenfunktion ebenso wie die Kompatibilität zur proprietären Oracle-Programmiersprache PL/SQL und wartet mit einer neuen Data Definition Language zur Absicherung von Datenbankausfällen auf. [mehr]

Buchbesprechung

Windows 10 Power-Tipps

von Günter Born

Anzeigen