Storage-Virtualisierung
In unserer Grundlagen-Rubrik erklären wir wichtige Aufgaben und Technologien aus dem Arbeitsalltag eines Netzwerk- und Systemadministrators. Ziel der Storage-Virtualisierung ist es, im Rechenzentrum für Konsolidierung zu sorgen, Ressourcen effizient auszunutzen und die Verwaltung komplexer Speicherlandschaften zu vereinfachen.
Die Virtualisierung gehört seit Jahren zu den zentralen Technologien moderner IT-Infrastrukturen. Neben Servern und Desktops lässt sich auch der Speicher virtualisieren. Ziel der Storage-Virtualisierung ist es, im Rechenzentrum für Konsolidierung zu sorgen, Ressourcen effizient auszunutzen und die Verwaltung komplexer Speicherlandschaften zu vereinfachen. Gerade im Zeitalter rasant wachsender Datenmengen gewinnt dieser Ansatz zunehmend an Bedeutung.
Im Kern bedeutet Storage-Virtualisierung die Entkopplung des logischen vom physischen Speicherort. Eine Virtualisierungsschicht – meist in Form spezialisierter Software – übernimmt das Mapping zwischen logischen Volumes und physischen Speicherblöcken. Dabei greifen Nutzer und Anwendungen auf virtuelle Speicherobjekte zu, ohne zu wissen oder wissen zu müssen, auf welchem konkreten Datenträger die Informationen tatsächlich gespeichert sind.
Blockvirtualisierung im SAN
Im Unternehmensumfeld kommt die Virtualisierung in der Regel im Zusammenspiel mit blockbasiertem Speicher zum Einsatz, der typischerweise in Form eines Storage Area Networks (SAN) organisiert ist. Hierbei handelt es sich um eine Infrastruktur, die Datenblöcke über dedizierte Netzwerke zur Verfügung stellt. Die Blockvirtualisierung in solchen Umgebungen erlaubt es, logische Laufwerke unabhängig von der physischen Speicherhardware zu verwalten. Die Virtualisierungsschicht verwaltet die Metadaten aller Volumes und stellt sicher, dass Datenzugriffe stets korrekt geroutet werden. Dies hat den Vorteil, dass etwa Volumes zwischen Speichersystemen verschoben oder gespiegelt werden können, ohne dass der Host oder die Applikation über die geänderten Speicherorte informiert werden muss.
Bei der Blockvirtualisierung speichert die Virtualisierungsplattform die Blöcke aller Festplatten in einer Liste. Diese sogenannte "Mapping Table" zeigt, wo genau sich ein bestimmter Datenblock befindet. Die physikalische Adresse dieses Datenblocks hält das Virtualisierungssystem anhand des "LUN Identifier" beziehungsweise der "Logical Block Address" fest. Durch diese Liste ist es möglich, logische Festplatten unabhängig vom Festplatten-Controller des Speichersystems zu verschieben, zu kopieren, zu spiegeln oder zu replizieren. Diese Adresstabellen werden auch Metadaten genannt und leiten einen I/O-Request zum tatsächlichen Speicherort der gesuchten Information weiter.
Die Blockvirtualisierung bringt neben der Flexibilität auch zusätzliche Funktionen mit sich, die das Speichermanagement erleichtern. Eine davon ist Thin Provisioning, bei dem Speicherplatz nur in dem Umfang zugewiesen wird, wie er tatsächlich benötigt wird. Das verbessert die Auslastung der verfügbaren Kapazitäten und verhindert Überprovisionierung. Ein weiterer etablierter Mechanismus ist das Pooling: Dabei werden unterschiedliche Speichergeräte – teils auch von verschiedenen Herstellern – zu einem einheitlich verwalteten Speicherpool zusammengefasst. Eine solche Umgebung lässt sich unter einer gemeinsamen Oberfläche administrieren, wobei moderne Systeme auch Funktionen wie Datenkompression, Snapshots oder automatische Replikation beinhalten.
Als Nachteile der Blockvirtualisierung wird oft die gestiegene Komplexität genannt, die vor allem durch das Generieren und Verwalten von Metadaten entsteht. Da nur die Virtualisierungsplattform weiß, wo genau sich die gesuchten Blöcke befinden, wird sie zum Single Point of Failure. Außerdem kann es zu Performanceproblemen kommen – etwa Engpässe bei der I/O-Redirection durch den zusätzlichen Overhead beim Verarbeiten der Metadaten. Dies verlangsamt im ungünstigsten Fall das gesamte Speichersystem. Außerdem mahnen Kritiker der Blockvirtualisierung an, dass sich durch eine gemeinsame Virtualisierungsschicht heterogene Systeme nur in der Theorie gemeinsam verwalten ließen und proprietäre Produkte der Hersteller zur Speichervirtualisierung eben nicht konvergent wären.
Leitfaden Storage-Virtualisierung |
Dateivirtualisierung und Objektspeicher
Ein weiterer wichtiger Ansatz ist die Dateivirtualisierung. In Dateisystemen sorgt eine entsprechende Abstraktionsschicht dafür, dass auf Dateien unabhängig von deren physischem Speicherort zugegriffen werden kann. Auch hier kommen Metadaten zum Einsatz, um einen globalen Namensraum aufzuspannen. Das ermöglicht es, Dateien über viele Systeme hinweg zu verwalten, strukturieren und auffindbar zu machen. Besonders in Umgebungen mit stark wachsendem unstrukturierten Datenvolumen, etwa in Forschung, Medien oder Industrie, ist dieser Ansatz vorteilhaft.
Mechanismen wie automatisches Tiering verschieben häufig genutzte Dateien automatisch auf schnelle, seltener genutzte auf günstigere Speichermedien. Dadurch bleibt die Performance für häufig genutzte Daten hoch, während sich weniger relevante Inhalte auf langsamere Speicher auslagern lassen. Produktbeispiele für moderne Dateivirtualisierung sind Dell OneFS, das in Isilon-Systemen zum Einsatz kommt, sowie NetApp FlexGroup oder Qumulo Core, das vor allem in datenintensiven Anwendungsfeldern Verwendung findet.
Eine wichtige Weiterentwicklung stellt die Integration von Objekt-Storage-Funktionen dar, wie sie etwa Ceph oder Scality bieten. Diese Angebote kombinieren Block-, File- und Objekt-Speicher in einer gemeinsamen Verwaltungsumgebung. Damit lässt sich ein Unified-Storage-Ansatz realisieren, der es erlaubt, unterschiedlichste Speicherprotokolle und -anforderungen innerhalb eines Systems zu konsolidieren. Unified-Storage-Systeme kommen typischerweise dort zum Einsatz, wo ein hoher Automatisierungsgrad erforderlich ist und heterogene Workloads – etwa aus VMs, Datenbanken und Dateiarchiven – gemeinsam betrieben werden.
Auf Standardhardware: Software-defined Storage
Eine besonders weitreichende Form der Storage-Virtualisierung stellt das Konzept des Software-defined Storage (SDS) dar. Dabei wird nicht nur der physische Speicher virtualisiert, sondern auch die darauf aufbauenden Dienste –etwa Snapshots, Deduplizierung, Replikation oder Tiering – als eigenständige Softwareschicht bereitgestellt. Die Bereitstellung dieser Funktionen ist nicht mehr an spezielle Hardware gebunden, sondern erfolgt auf Standardservern mit x86-Architektur. Damit lassen sich Speichersysteme flexibel skalieren, auf bestehender Infrastruktur aufbauen und unabhängig von proprietären Plattformen betreiben.
SDS-Systeme werden typischerweise über zentrale Managementkonsolen konfiguriert und lassen sich über APIs automatisieren. Der eigentliche Speicher besteht oft aus Festplatten- oder Flash-Pools, die von der SDS-Software zu logischen Einheiten zusammengefasst werden. Neben der besseren Ausnutzung vorhandener Ressourcen ermöglichen diese Systeme auch fortschrittliche Redundanzkonzepte wie Erasure Coding, bei dem Daten redundant auf mehrere Knoten verteilt und mathematisch abgesichert werden. Dadurch ist ein höheres Maß an Fehlertoleranz erreichbar als bei klassischem RAID, ohne dass die Speichereffizienz darunter leidet.
Zu den heute weit verbreiteten SDS-Produkten zählt VMware vSAN, das direkt in die vSphere-Plattform integriert ist und auf Clustern aus Standardservern läuft. Nutanix AOS, das sowohl mit dem eigenen Hypervisor AHV als auch mit VMware kombinierbar ist, stellt ein weiteres Beispiel für eine leistungsfähige, softwaredefinierte Speiche dar. Red Hat Ceph Storage ist eine quelloffene Alternative, die sich besonders im Cloud- und Containerumfeld durchgesetzt hat. Weitere nennenswerte Produkte sind StorPool, das sich auf Performance-optimierten Block-Storage konzentriert, sowie OpenEBS, das speziell für Kubernetes-Umgebungen entwickelt wurde und containernative Speicherressourcen bereitstellt.
Alles in einem System: Hyperkonvergenz
Nahezu alle hyperkonvergenten Infrastrukturen basieren auf Software-defined Storage. Hyperkonvergenz zielt darauf ab, Server-, Speicher- und Netzwerkfunktionen vollständig zu virtualisieren und in einem gemeinsamen System zu betreiben. Die Grundlage bilden dabei standardisierte, vorkonfigurierte Infrastrukturblöcke, in denen Rechenleistung und Speicher vereint sind. Die Verwaltung erfolgt zentral über eine Softwareplattform, typischerweise gesteuert durch einen Hypervisor.
Die horizontale Skalierung erfolgt durch das Hinzufügen weiterer Knoten. Dies macht sie besonders attraktiv für mittelständische Unternehmen oder dezentrale Standorte, die ohne großen Konfigurationsaufwand leistungsfähige und ausfallsichere IT-Infrastruktur benötigen. Zu den etablierten Angeboten am Markt gehören neben Nutanix und VMware auch HPE SimpliVity mit dedizierter Hardware sowie Cisco HyperFlex, das auf UCS-Servern und einer eigenen Softwareplattform basiert. Hyperkonvergente Systeme kommen heute nicht nur im Core-Rechenzentrum, sondern zunehmend auch im Edge-Computing zum Einsatz, etwa in Filialnetzen, Produktionsstandorten oder IoT-Szenarien.
Im Zusammenspiel mit der Cloud
Während die Virtualisierung als technisches Konzept verstanden wird, ist die Public Cloud vor allem eine Bereitstellungsform von IT-Ressourcen – meist in Form standardisierter Self-Service-Dienste. Diese Angebote basieren allerdings durchweg auf vollständig virtualisierten und softwaredefinierten Infrastrukturen. Storage-Virtualisierung ist hier fester Bestandteil und tritt dem Nutzer in Form von abstrahierten Diensten wie Amazon EBS, Google Persistent Disk oder Azure Managed Disks entgegen. Diese Angebote sind hochverfügbar, elastisch skalierbar und lassen sich in automatisierte DevOps-Workflows integrieren.
Für hybride Infrastrukturen gewinnt zudem die Verbindung lokaler Speichersysteme mit Cloudressourcen an Bedeutung. Hier kommen sogenannte Cloud Storage Gateways zum Einsatz, die einen transparenten Zugriff auf cloudbasierten Speicher ermöglichen, ohne dass Anwendungen oder Nutzer zwischen lokalem und externem Speicher unterscheiden müssen. Produkte wie AWS Storage Gateway, Nasuni oder NetApp BlueXP bieten entsprechende Funktionen, inklusive Caching, Replikation und Versionsverwaltung.
Ob On-Premises, in der Cloud oder in hybriden Umgebungen – Storage-Virtualisierung bildet das Fundament für moderne, effiziente und anpassungsfähige IT-Infrastrukturen.
Sie sind auf der Suche nach einem kompakten, übersichtlichen Praxisleitfaden zum Thema Storage-Virtualisierung? Den gibt's hier.