Fachartikel

Grundlagen und Chancen von Software-defined Storage

Storage ist nicht gerade sexy, aber das Herz der IT. Große Teile der Budgets wandern deshalb in mehr Kapazität. Egal ob hyperkonvergierte Architekturen, smarte All-Flash-Arrays, NVMe-Speicher oder die Cloud – mit der Entscheidung für Technologien oder einen Anbieter sind Unternehmen in der Regel für Jahre gebunden. Anders stell sich dies in einer Software-definierten Infrastruktur dar. Wie der Fachbeitrag zeigt, haben sie sich gerade im Speicherumfeld bewährt, um Rechenzentren agiler, reaktionsschneller und nicht zuletzt zukunftssicherer zu machen.
Ein erklärtes Ziel von Software-defined Storage ist es, Silo-Speicherinfrastrukturen zu überwinden.
Infrastruktur-Teams müssen ständig ausloten, ob sie wachsende Ansprüche mit Hilfe neuer Technologien erfüllen können. Hier die richtige Entscheidung zu treffen, war noch nie so wichtig – auch, weil die nächste technologische Entwicklung vielleicht schon vor der Tür steht.

Die Branche hat dieses Problem bereits erlebt – und für Server flächendeckend gelöst. Die Lösung war eine Softwarevirtualisierung, die die Hardware abstrahierte. Das schafft eine programmierbare Zwischenschicht, mit der Anwender effektiv Ressourcen zusammenfassen, spontan umkonfigurieren und Kapazität bereitstellen können. Hardware via Software zu programmieren funktioniert auch für den Speicher. Ein modernes Rechenzentrum ist deshalb Software , nicht Hardware orientiert.

Die Rolle des Software-defined Storage
Eine softwaredefinierte Infrastruktur verspricht, flexibel, skalierbar und günstig zu sein. Deshalb hat sich die Technologie gerade beim Thema Storage bewährt, und hilft, agilere, reaktionsschnellere und effektivere Rechenzentren aufzubauen. Der Software-Layer bricht Silos auf und macht Nutzer unabhängig von Hardware und von den Hardwareanbietern getriebenen Erneuerungszyklen. So muss die IT-Abteilung nicht jedes Mal die Hardware aktualisieren, nur weil ein Hersteller dies für seine Systeme verlangt. Zugleich macht es die bestehende Infrastruktur zukunftssicher für neue Herausforderungen.
Diese Funktionen zeichnen Software Defined Storage (SDS) besonders aus:

  • Kapazität über verschiedene Speichersysteme hinweg zu bündeln – unabhängig von Hardware und Anbieter
  • Automatisierung mit softwarebasierter Bereitstellung, Verwaltung und Reporting – entweder über API oder ein Management-Interface
  • Funktionsverbessernde Dienste wie etwa Auto Tiering, Leistungssteigerung, Snapshots oder Spiegelung für hohe Verfügbarkeit
  • Flexible Architekturen, die sich mit der Zeit weiterentwickeln und Speicher automatisch verlagern können – was komplexe und risikoreiche Migrationen unnötig macht, wenn neue Hardware hinzugefügt oder alte ausgemustert wird
Software-defined Storage ist etabliert und den Kinderschuhen längst entwachsen. Laut einem Gartner-Report nutzten 2017 oder davor 45 Prozent der Befragten SDS im Produktivbetrieb. 2018/2019 waren es 44 Prozent mehr – beinahe eine Verdoppelung in zwei Jahren. SDS ist keine ferne Zukunftsmusik mehr, sondern eine allgemein akzeptierte Schlüsseltechnologie.

Einer der Gründe für die wachsende Akzeptanz von Software-defined Storage ist seine Flexibilität. So können beispielsweise neue Speicher und Technologien unterbrechungsfrei hinzugefügt werden – von AFAs, NVMe zu Containern oder Cloudspeichern. Erscheint neue Hardware, ist diese dank SDS meist problemlos integrierbar– vollständige Hardwarewechsel sind nicht mehr nötig. Die Technologie erleichtert es zudem, verschiedene Speichertypen gleichzeitig zu nutzen (Direct Attached, Arrays, JBODs, Fibre Channel, iSCSI, et cetera) und gibt volle Wahlfreiheit bei den Bereitstellungsmodellen: von SANs zu hyperkonvergiert oder Hybrid Converged, einer Kombination aus beiden.

Vorteile von SDS im täglichen IT-Betrieb
Für Storage-Experten besteht fast die Hälfte ihrer Zeit und Arbeit darin, Daten von einem System zum nächsten zu migrieren. Sind durch SDS aber bereits alle Speichersysteme virtualisiert, wird es einfacher, die Kapazitäten zu planen: Das System kann dann die Daten auf Pool-Ebene verwalten und Thin Provisioning hilft dabei, die Ausnutzung zu maximieren. Die Daten lassen sich unterbrechungsfrei verschieben, oftmals unterstützt durch Machine Learning basiertes Auto Tiering über die Speichersystem hinweg. So werden die Daten auf dem dafür geeignetsten Storage System abgelegt, was wiederum die Leistungsmerkmale der verschiedenen Systeme bestmöglich ausnutzt.

Da das Auto Tiering auf Block-Level stattfindet, kann schon eine relativ kleine Investition die Gesamtperformance erheblich verbessern. Ein Beispiel: Sobald Storage-Teams den Speicherpool um einige GByte NVMe Flash erweitern, verbessert sich die Performance für alle Anwendungen und Nutzer sind produktiver. Mit Auto Tiering auf dem Storage Defined Storage Layer profitiert die IT zudem von verschiedenen Technologien und Speichern verschiedener Anbieter. Dynamisches Auto Tiering bedeutet in der Praxis, dass permanent die Ablage der Daten optimiert wird, ohne dass der Mensch eingreifen muss.
5.06.2019/ln/Gerardo Dada, CMO bei DataCore Software

Nachrichten

Mehr Flexibilität für DevOps-Workflows [25.11.2019]

Delphix hat seinen DataOps-Marketplace angekündigt und bringt Version 6 seiner Delphix Dynamic Data Platform (DDDP) auf den Markt. Die DataOps-Plattform bietet einige Erweiterungen für die Anwendungsentwicklung in Unternehmen. Die Software soll dabei helfen, schnell sichere Daten aus jeder Datenbank in Cloud- und Hybrid-Cloud-Umgebungen bereitzustellen. [mehr]

DataCore virtualisiert weiter [15.11.2019]

DataCore ergänzt sein Software-defined-Storage-Portfolio um "vFilO". Mit der speziell für verteilte Datei- und Objektspeicher entwickelten Virtualisierungstechnologie will der Hersteller unter anderem bei der Skalierung punkten – möglich seien zwei Instanzen mit einigen TByte, aber auch Milliarden von Dateien, die über zahlreiche Knoten verteilt sind. [mehr]

Vier Server-Musketiere [31.10.2019]

Tipps & Tools

Newsletter als Atom-Feed erhalten [28.11.2019]

Grundsätzlich ist es für Admins sinnvoll, verschiedene IT-Newsletter zu abonnieren, um stets auf dem Laufenden zu bleiben. Allerdings fehlt häufig die Zeit, die oftmals langen E-Mails in Ruhe zu lesen. Eine hilfreiche Alternative stellt der kostenfreie Dienst von "www.kill-the-newsletter.com" zur Verfügung. Die Webseite bietet einen einfachen Weg, Newsletter als Feeds zu empfangen. [mehr]

Große Umfrage des IT-Administrator zu Collaboration [26.11.2019]

Im Sonderheft 2020 setzt IT-Administrator den Fokus auf "Collaboration & Datenaustausch". Da wir stets die Themen liefern wollen, die für unsere Leser relevant sind, haben Sie die Möglichkeit, an unserer Umfrage teilzunehmen und gleichzeitig etwas zu gewinnen. Mit etwas Glück gehört Ihnen bald ein Storage-Buch, ein Rucksack oder ein Amazon-Gutschein im Wert von 50, 20 oder 10 Euro. [mehr]

Buchbesprechung

Handbuch Online-Shop

von Alexander Steireif, Rouven Rieker, Markus Bückle

Anzeigen