Fachartikel

Grundlagen und Chancen von Software-defined Storage

Storage ist nicht gerade sexy, aber das Herz der IT. Große Teile der Budgets wandern deshalb in mehr Kapazität. Egal ob hyperkonvergierte Architekturen, smarte All-Flash-Arrays, NVMe-Speicher oder die Cloud – mit der Entscheidung für Technologien oder einen Anbieter sind Unternehmen in der Regel für Jahre gebunden. Anders stell sich dies in einer Software-definierten Infrastruktur dar. Wie der Fachbeitrag zeigt, haben sie sich gerade im Speicherumfeld bewährt, um Rechenzentren agiler, reaktionsschneller und nicht zuletzt zukunftssicherer zu machen.
Ein erklärtes Ziel von Software-defined Storage ist es, Silo-Speicherinfrastrukturen zu überwinden.
Infrastruktur-Teams müssen ständig ausloten, ob sie wachsende Ansprüche mit Hilfe neuer Technologien erfüllen können. Hier die richtige Entscheidung zu treffen, war noch nie so wichtig – auch, weil die nächste technologische Entwicklung vielleicht schon vor der Tür steht.

Die Branche hat dieses Problem bereits erlebt – und für Server flächendeckend gelöst. Die Lösung war eine Softwarevirtualisierung, die die Hardware abstrahierte. Das schafft eine programmierbare Zwischenschicht, mit der Anwender effektiv Ressourcen zusammenfassen, spontan umkonfigurieren und Kapazität bereitstellen können. Hardware via Software zu programmieren funktioniert auch für den Speicher. Ein modernes Rechenzentrum ist deshalb Software , nicht Hardware orientiert.

Die Rolle des Software-defined Storage
Eine softwaredefinierte Infrastruktur verspricht, flexibel, skalierbar und günstig zu sein. Deshalb hat sich die Technologie gerade beim Thema Storage bewährt, und hilft, agilere, reaktionsschnellere und effektivere Rechenzentren aufzubauen. Der Software-Layer bricht Silos auf und macht Nutzer unabhängig von Hardware und von den Hardwareanbietern getriebenen Erneuerungszyklen. So muss die IT-Abteilung nicht jedes Mal die Hardware aktualisieren, nur weil ein Hersteller dies für seine Systeme verlangt. Zugleich macht es die bestehende Infrastruktur zukunftssicher für neue Herausforderungen.
Diese Funktionen zeichnen Software Defined Storage (SDS) besonders aus:

  • Kapazität über verschiedene Speichersysteme hinweg zu bündeln – unabhängig von Hardware und Anbieter
  • Automatisierung mit softwarebasierter Bereitstellung, Verwaltung und Reporting – entweder über API oder ein Management-Interface
  • Funktionsverbessernde Dienste wie etwa Auto Tiering, Leistungssteigerung, Snapshots oder Spiegelung für hohe Verfügbarkeit
  • Flexible Architekturen, die sich mit der Zeit weiterentwickeln und Speicher automatisch verlagern können – was komplexe und risikoreiche Migrationen unnötig macht, wenn neue Hardware hinzugefügt oder alte ausgemustert wird
Software-defined Storage ist etabliert und den Kinderschuhen längst entwachsen. Laut einem Gartner-Report nutzten 2017 oder davor 45 Prozent der Befragten SDS im Produktivbetrieb. 2018/2019 waren es 44 Prozent mehr – beinahe eine Verdoppelung in zwei Jahren. SDS ist keine ferne Zukunftsmusik mehr, sondern eine allgemein akzeptierte Schlüsseltechnologie.

Einer der Gründe für die wachsende Akzeptanz von Software-defined Storage ist seine Flexibilität. So können beispielsweise neue Speicher und Technologien unterbrechungsfrei hinzugefügt werden – von AFAs, NVMe zu Containern oder Cloudspeichern. Erscheint neue Hardware, ist diese dank SDS meist problemlos integrierbar– vollständige Hardwarewechsel sind nicht mehr nötig. Die Technologie erleichtert es zudem, verschiedene Speichertypen gleichzeitig zu nutzen (Direct Attached, Arrays, JBODs, Fibre Channel, iSCSI, et cetera) und gibt volle Wahlfreiheit bei den Bereitstellungsmodellen: von SANs zu hyperkonvergiert oder Hybrid Converged, einer Kombination aus beiden.

Vorteile von SDS im täglichen IT-Betrieb
Für Storage-Experten besteht fast die Hälfte ihrer Zeit und Arbeit darin, Daten von einem System zum nächsten zu migrieren. Sind durch SDS aber bereits alle Speichersysteme virtualisiert, wird es einfacher, die Kapazitäten zu planen: Das System kann dann die Daten auf Pool-Ebene verwalten und Thin Provisioning hilft dabei, die Ausnutzung zu maximieren. Die Daten lassen sich unterbrechungsfrei verschieben, oftmals unterstützt durch Machine Learning basiertes Auto Tiering über die Speichersystem hinweg. So werden die Daten auf dem dafür geeignetsten Storage System abgelegt, was wiederum die Leistungsmerkmale der verschiedenen Systeme bestmöglich ausnutzt.

Da das Auto Tiering auf Block-Level stattfindet, kann schon eine relativ kleine Investition die Gesamtperformance erheblich verbessern. Ein Beispiel: Sobald Storage-Teams den Speicherpool um einige GByte NVMe Flash erweitern, verbessert sich die Performance für alle Anwendungen und Nutzer sind produktiver. Mit Auto Tiering auf dem Storage Defined Storage Layer profitiert die IT zudem von verschiedenen Technologien und Speichern verschiedener Anbieter. Dynamisches Auto Tiering bedeutet in der Praxis, dass permanent die Ablage der Daten optimiert wird, ohne dass der Mensch eingreifen muss.
5.06.2019/ln/Gerardo Dada, CMO bei DataCore Software

Nachrichten

QNAP präsentiert neues Enterprise-ZFS-NAS [12.06.2019]

QNAP bringt ein neues NAS auf den Markt: Das "ES1686dc" mit Intel-Xeon-E5-Prozessor, zwei aktiven Controllern sowie Unterstützung von Virtualisierungsumgebungen und 12-GBit-SAS. Das Speichersystem arbeitet mit dem Betriebssystem QES 2.1.0 und soll somit zuverlässige Datensicherungs-, wiederherstellungs- und Business-Class-Funktionen bieten. [mehr]

Ruhige Nächte mit MariaDB [12.06.2019]

Die MariaDB Corporation hat für Ende Juni "MariaDB Enterprise Server 10.4" angekündigt. Das Release trägt den Namen "Ruhige Nächte" (Restful Nights) und soll in puncto Stabilität und Anpassbarkeit neue Standards für Datenbanken in großen Produktivumgebungen setzen. Für mehr Sicherheit wird es zudem neue Backup-, Audit- und Cluster-Funktionen geben. [mehr]

Tipps & Tools

Download der Woche: MegaSync [28.05.2019]

Die Synchronisierung von Dateien über die Cloud ist mittlerweile Standard. Als Alternative zu den bekannten Platzhirschen kann ein Blick auf den File-Hoster MEGA aus Neuseeland nicht schaden. Nachdem Sie das kostenlose Tool "MegaSync" heruntergeladen haben, erhalten Sie ähnlich wie bei Dropbox einen Ordner auf der Festplatte für den Upload in beziehungsweise Download aus der Cloud. 15 GByte Speicher steht Ihnen sofort zur Verfügung, durch Teilnahme an einem Bonusprogramm sind bis zu 50 GByte möglich. [mehr]

Anwendertagung für Storage-Management-Profis [13.05.2019]

Wer sich mit anderen IT-Professionals austauschen und parallel dazu Infos zu topaktuellen Infrastrukturthemen mit dem Schwerpunkt auf Daten- und Speichermanagement erhalten will, sollte die Anwendertagungen des Storage Consortium im Kalender anstreichen. Die nächste Fachtagung findet am 25. Juni 2019 in Frankfurt am Main statt. Neben der breiten Themenpalette beinhaltet die Agenda auch eine Demo zu NVMeoF und Software-defined Flash im e-shelter innovation lab. Melden Sie sich am besten noch heute für die kostenlose Fachtagung an. [mehr]

Buchbesprechung

Anzeigen