Fachartikel

Grundlagen und Chancen von Software-defined Storage

Storage ist nicht gerade sexy, aber das Herz der IT. Große Teile der Budgets wandern deshalb in mehr Kapazität. Egal ob hyperkonvergierte Architekturen, smarte All-Flash-Arrays, NVMe-Speicher oder die Cloud – mit der Entscheidung für Technologien oder einen Anbieter sind Unternehmen in der Regel für Jahre gebunden. Anders stell sich dies in einer Software-definierten Infrastruktur dar. Wie der Fachbeitrag zeigt, haben sie sich gerade im Speicherumfeld bewährt, um Rechenzentren agiler, reaktionsschneller und nicht zuletzt zukunftssicherer zu machen.
Ein erklärtes Ziel von Software-defined Storage ist es, Silo-Speicherinfrastrukturen zu überwinden.
Infrastruktur-Teams müssen ständig ausloten, ob sie wachsende Ansprüche mit Hilfe neuer Technologien erfüllen können. Hier die richtige Entscheidung zu treffen, war noch nie so wichtig – auch, weil die nächste technologische Entwicklung vielleicht schon vor der Tür steht.

Die Branche hat dieses Problem bereits erlebt – und für Server flächendeckend gelöst. Die Lösung war eine Softwarevirtualisierung, die die Hardware abstrahierte. Das schafft eine programmierbare Zwischenschicht, mit der Anwender effektiv Ressourcen zusammenfassen, spontan umkonfigurieren und Kapazität bereitstellen können. Hardware via Software zu programmieren funktioniert auch für den Speicher. Ein modernes Rechenzentrum ist deshalb Software , nicht Hardware orientiert.

Die Rolle des Software-defined Storage
Eine softwaredefinierte Infrastruktur verspricht, flexibel, skalierbar und günstig zu sein. Deshalb hat sich die Technologie gerade beim Thema Storage bewährt, und hilft, agilere, reaktionsschnellere und effektivere Rechenzentren aufzubauen. Der Software-Layer bricht Silos auf und macht Nutzer unabhängig von Hardware und von den Hardwareanbietern getriebenen Erneuerungszyklen. So muss die IT-Abteilung nicht jedes Mal die Hardware aktualisieren, nur weil ein Hersteller dies für seine Systeme verlangt. Zugleich macht es die bestehende Infrastruktur zukunftssicher für neue Herausforderungen.
Diese Funktionen zeichnen Software Defined Storage (SDS) besonders aus:

  • Kapazität über verschiedene Speichersysteme hinweg zu bündeln – unabhängig von Hardware und Anbieter
  • Automatisierung mit softwarebasierter Bereitstellung, Verwaltung und Reporting – entweder über API oder ein Management-Interface
  • Funktionsverbessernde Dienste wie etwa Auto Tiering, Leistungssteigerung, Snapshots oder Spiegelung für hohe Verfügbarkeit
  • Flexible Architekturen, die sich mit der Zeit weiterentwickeln und Speicher automatisch verlagern können – was komplexe und risikoreiche Migrationen unnötig macht, wenn neue Hardware hinzugefügt oder alte ausgemustert wird
Software-defined Storage ist etabliert und den Kinderschuhen längst entwachsen. Laut einem Gartner-Report nutzten 2017 oder davor 45 Prozent der Befragten SDS im Produktivbetrieb. 2018/2019 waren es 44 Prozent mehr – beinahe eine Verdoppelung in zwei Jahren. SDS ist keine ferne Zukunftsmusik mehr, sondern eine allgemein akzeptierte Schlüsseltechnologie.

Einer der Gründe für die wachsende Akzeptanz von Software-defined Storage ist seine Flexibilität. So können beispielsweise neue Speicher und Technologien unterbrechungsfrei hinzugefügt werden – von AFAs, NVMe zu Containern oder Cloudspeichern. Erscheint neue Hardware, ist diese dank SDS meist problemlos integrierbar– vollständige Hardwarewechsel sind nicht mehr nötig. Die Technologie erleichtert es zudem, verschiedene Speichertypen gleichzeitig zu nutzen (Direct Attached, Arrays, JBODs, Fibre Channel, iSCSI, et cetera) und gibt volle Wahlfreiheit bei den Bereitstellungsmodellen: von SANs zu hyperkonvergiert oder Hybrid Converged, einer Kombination aus beiden.

Vorteile von SDS im täglichen IT-Betrieb
Für Storage-Experten besteht fast die Hälfte ihrer Zeit und Arbeit darin, Daten von einem System zum nächsten zu migrieren. Sind durch SDS aber bereits alle Speichersysteme virtualisiert, wird es einfacher, die Kapazitäten zu planen: Das System kann dann die Daten auf Pool-Ebene verwalten und Thin Provisioning hilft dabei, die Ausnutzung zu maximieren. Die Daten lassen sich unterbrechungsfrei verschieben, oftmals unterstützt durch Machine Learning basiertes Auto Tiering über die Speichersystem hinweg. So werden die Daten auf dem dafür geeignetsten Storage System abgelegt, was wiederum die Leistungsmerkmale der verschiedenen Systeme bestmöglich ausnutzt.

Da das Auto Tiering auf Block-Level stattfindet, kann schon eine relativ kleine Investition die Gesamtperformance erheblich verbessern. Ein Beispiel: Sobald Storage-Teams den Speicherpool um einige GByte NVMe Flash erweitern, verbessert sich die Performance für alle Anwendungen und Nutzer sind produktiver. Mit Auto Tiering auf dem Storage Defined Storage Layer profitiert die IT zudem von verschiedenen Technologien und Speichern verschiedener Anbieter. Dynamisches Auto Tiering bedeutet in der Praxis, dass permanent die Ablage der Daten optimiert wird, ohne dass der Mensch eingreifen muss.
5.06.2019/ln/Gerardo Dada, CMO bei DataCore Software

Nachrichten

Mehr Durchsatz durch NVMe [8.08.2019]

ICP Deutschland erweitert sein SSD-Portfolio für industrielle Applikationen um zwei NVMe-Modulserien von Cervoz. Je nach Anzahl der PCI Express Lanes verspricht der Anbieter Durchsatzraten zwischen 1600 und 3500 MByte pro Sekunde. [mehr]

SEP bohrt Backupwerkzeug auf [25.07.2019]

SEP hat seine auf virtualisierte und hybride Umgebungen spezialisierte Backupsoftware "sesam Beefalo" einer Runderneuerung unterzogen. Neu ist unter anderem die Unterstützung für die Hypervisoren Proxmox VE und die freie Citrix-Variante XCP-ng. Damit arbeitet die Lösung laut Hersteller nun mit insgesamt acht Hypervisoren zusammen. [mehr]

Tipps & Tools

Katalogbackup regelmäßig durchführen [21.07.2019]

Viele Admins, die Veritas NetBackup nutzen, fragen sich, wie sie bei einem Katalogbackup die ideale Aufbewahrungsrichtlinie (Data Retention Policy) aufsetzen und ob diese identisch zur längsten Periode sein muss, mit der sie beim Backup arbeiten. Auf was tatsächlich geachtet werden sollte, zeigt Ihnen dieser Tipp. [mehr]

Großes Storage-Gewinnspiel [15.07.2019]

Die Datenmengen in Unternehmen wachsen stetig an. Ihre Speicherung und schnelle Bereitstellung wird zu einer immer größeren Herausforderung. storage2day, die neue Konferenz für Speichernetze und Datenmanagement, präsentiert an zwei Tagen im September Grundlagen, bewährte Lösungen für den Praxiseinsatz und zukünftige Entwicklungen. IT-Administrator verlost für die Konferenz drei Eintrittskarten im Wert von jeweils 895 Euro. Außerdem gibt es noch viel Lesematerial zum Thema zu gewinnen. [mehr]

Buchbesprechung

Anzeigen