Fachartikel

Grundlagen und Chancen von Software-defined Storage

Storage ist nicht gerade sexy, aber das Herz der IT. Große Teile der Budgets wandern deshalb in mehr Kapazität. Egal ob hyperkonvergierte Architekturen, smarte All-Flash-Arrays, NVMe-Speicher oder die Cloud – mit der Entscheidung für Technologien oder einen Anbieter sind Unternehmen in der Regel für Jahre gebunden. Anders stell sich dies in einer Software-definierten Infrastruktur dar. Wie der Fachbeitrag zeigt, haben sie sich gerade im Speicherumfeld bewährt, um Rechenzentren agiler, reaktionsschneller und nicht zuletzt zukunftssicherer zu machen.
Ein erklärtes Ziel von Software-defined Storage ist es, Silo-Speicherinfrastrukturen zu überwinden.
Infrastruktur-Teams müssen ständig ausloten, ob sie wachsende Ansprüche mit Hilfe neuer Technologien erfüllen können. Hier die richtige Entscheidung zu treffen, war noch nie so wichtig – auch, weil die nächste technologische Entwicklung vielleicht schon vor der Tür steht.

Die Branche hat dieses Problem bereits erlebt – und für Server flächendeckend gelöst. Die Lösung war eine Softwarevirtualisierung, die die Hardware abstrahierte. Das schafft eine programmierbare Zwischenschicht, mit der Anwender effektiv Ressourcen zusammenfassen, spontan umkonfigurieren und Kapazität bereitstellen können. Hardware via Software zu programmieren funktioniert auch für den Speicher. Ein modernes Rechenzentrum ist deshalb Software , nicht Hardware orientiert.

Die Rolle des Software-defined Storage
Eine softwaredefinierte Infrastruktur verspricht, flexibel, skalierbar und günstig zu sein. Deshalb hat sich die Technologie gerade beim Thema Storage bewährt, und hilft, agilere, reaktionsschnellere und effektivere Rechenzentren aufzubauen. Der Software-Layer bricht Silos auf und macht Nutzer unabhängig von Hardware und von den Hardwareanbietern getriebenen Erneuerungszyklen. So muss die IT-Abteilung nicht jedes Mal die Hardware aktualisieren, nur weil ein Hersteller dies für seine Systeme verlangt. Zugleich macht es die bestehende Infrastruktur zukunftssicher für neue Herausforderungen.
Diese Funktionen zeichnen Software Defined Storage (SDS) besonders aus:

  • Kapazität über verschiedene Speichersysteme hinweg zu bündeln – unabhängig von Hardware und Anbieter
  • Automatisierung mit softwarebasierter Bereitstellung, Verwaltung und Reporting – entweder über API oder ein Management-Interface
  • Funktionsverbessernde Dienste wie etwa Auto Tiering, Leistungssteigerung, Snapshots oder Spiegelung für hohe Verfügbarkeit
  • Flexible Architekturen, die sich mit der Zeit weiterentwickeln und Speicher automatisch verlagern können – was komplexe und risikoreiche Migrationen unnötig macht, wenn neue Hardware hinzugefügt oder alte ausgemustert wird
Software-defined Storage ist etabliert und den Kinderschuhen längst entwachsen. Laut einem Gartner-Report nutzten 2017 oder davor 45 Prozent der Befragten SDS im Produktivbetrieb. 2018/2019 waren es 44 Prozent mehr – beinahe eine Verdoppelung in zwei Jahren. SDS ist keine ferne Zukunftsmusik mehr, sondern eine allgemein akzeptierte Schlüsseltechnologie.

Einer der Gründe für die wachsende Akzeptanz von Software-defined Storage ist seine Flexibilität. So können beispielsweise neue Speicher und Technologien unterbrechungsfrei hinzugefügt werden – von AFAs, NVMe zu Containern oder Cloudspeichern. Erscheint neue Hardware, ist diese dank SDS meist problemlos integrierbar– vollständige Hardwarewechsel sind nicht mehr nötig. Die Technologie erleichtert es zudem, verschiedene Speichertypen gleichzeitig zu nutzen (Direct Attached, Arrays, JBODs, Fibre Channel, iSCSI, et cetera) und gibt volle Wahlfreiheit bei den Bereitstellungsmodellen: von SANs zu hyperkonvergiert oder Hybrid Converged, einer Kombination aus beiden.

Vorteile von SDS im täglichen IT-Betrieb
Für Storage-Experten besteht fast die Hälfte ihrer Zeit und Arbeit darin, Daten von einem System zum nächsten zu migrieren. Sind durch SDS aber bereits alle Speichersysteme virtualisiert, wird es einfacher, die Kapazitäten zu planen: Das System kann dann die Daten auf Pool-Ebene verwalten und Thin Provisioning hilft dabei, die Ausnutzung zu maximieren. Die Daten lassen sich unterbrechungsfrei verschieben, oftmals unterstützt durch Machine Learning basiertes Auto Tiering über die Speichersystem hinweg. So werden die Daten auf dem dafür geeignetsten Storage System abgelegt, was wiederum die Leistungsmerkmale der verschiedenen Systeme bestmöglich ausnutzt.

Da das Auto Tiering auf Block-Level stattfindet, kann schon eine relativ kleine Investition die Gesamtperformance erheblich verbessern. Ein Beispiel: Sobald Storage-Teams den Speicherpool um einige GByte NVMe Flash erweitern, verbessert sich die Performance für alle Anwendungen und Nutzer sind produktiver. Mit Auto Tiering auf dem Storage Defined Storage Layer profitiert die IT zudem von verschiedenen Technologien und Speichern verschiedener Anbieter. Dynamisches Auto Tiering bedeutet in der Praxis, dass permanent die Ablage der Daten optimiert wird, ohne dass der Mensch eingreifen muss.
5.06.2019/ln/Gerardo Dada, CMO bei DataCore Software

Nachrichten

Storage für hochskalierbare Cloudinfrastrukturen [28.07.2020]

Supermicro erweitert sein Portfolio an Storagesystemen um neue 60- und 90-Einschub-Optionen. Die Speichersysteme sind laut Hersteller für hochskalierbare Cloudinfrastrukturen sowie HPC-Storageanwendungen optimiert. Bei maximaler Konfiguration soll die Neuvorstellung bis zu 1440 TByte Speicher ermöglichen. [mehr]

Mehr Power mit PowerScale [25.06.2020]

Dell Technologies hat EMC PowerScale angekündigt, eine neue Familie von Speichersystemen. Die neuen Geräte versprechen mehr Leistung mit über 15 Millionen IOPS pro Cluster sowie verbesserte Inline-Datenreduktion und Skalierung von Clustern und File-Operationen. [mehr]

Tipps & Tools

Im Test: EnterpriseDB Postgres [30.07.2020]

In vielen Unternehmen gilt eine Art Datenbank-Oligopol: Entweder kommt Oracle oder MySQL zum Einsatz. EnterpriseDB will das mit seiner gleichnamigen PostgreSQL-Distribution ändern. EnterpriseDB Postgres erwies sich im Test als robuste relationale Datenbank mit vielen Enterprise-Features, die sich hinter Oracle & Co. keineswegs zu verstecken brauchen. Vor allem in Sachen Migration und Kompatibilität konnte uns die Plattform überzeugen und auch das Backup-Tool erhielt unsere Zustimmung. [mehr]

Hochverfügbare SQL-Cluster in der Google-Cloud [23.07.2020]

SQL-Server-Failovercluster-Instanzen stellen die Hochverfügbarkeit von SQL-Servern sicher. Um der Anforderung an gemeinsam nutzbaren Speicher in der Google-Cloud gerecht zu werden, empfiehlt der Cloudprovider Storage Spaces Direct. Die Krux dabei: Die Einrichtung erfordert, dass sich alle VMs und der Speicher im selben Rechenzentrum befinden. Hochverfügbarkeit gewährleistet Google jedoch nur bei standortübergreifenden Konfigurationen. Wie sich dieses Dilemma lösen lässt, verrät unsere Schritt-für-Schritt-Anleitung. [mehr]

Buchbesprechung

Microsoft Office 365

von Markus Widl

Anzeigen