Grundlagen und Chancen von Software-defined Storage

Lesezeit
2 Minuten
Bis jetzt gelesen

Grundlagen und Chancen von Software-defined Storage

05.06.2019 - 14:00
Veröffentlicht in:
Storage ist nicht gerade sexy, aber das Herz der IT. Große Teile der Budgets wandern deshalb in mehr Kapazität. Egal ob hyperkonvergierte Architekturen, smarte All-Flash-Arrays, NVMe-Speicher oder die Cloud – mit der Entscheidung für Technologien oder einen Anbieter sind Unternehmen in der Regel für Jahre gebunden. Anders stell sich dies in einer Software-definierten Infrastruktur dar. Wie der Fachbeitrag zeigt, haben sie sich gerade im Speicherumfeld bewährt, um Rechenzentren agiler, reaktionsschneller und nicht zuletzt zukunftssicherer zu machen.
Infrastruktur-Teams müssen ständig ausloten, ob sie wachsende Ansprüche mit Hilfe neuer Technologien erfüllen können. Hier die richtige Entscheidung zu treffen, war noch nie so wichtig – auch, weil die nächste technologische Entwicklung vielleicht schon vor der Tür steht.

Die Branche hat dieses Problem bereits erlebt – und für Server flächendeckend gelöst. Die Lösung war eine Softwarevirtualisierung, die die Hardware abstrahierte. Das schafft eine programmierbare Zwischenschicht, mit der Anwender effektiv Ressourcen zusammenfassen, spontan umkonfigurieren und Kapazität bereitstellen können. Hardware via Software zu programmieren funktioniert auch für den Speicher. Ein modernes Rechenzentrum ist deshalb Software , nicht Hardware orientiert.

Die Rolle des Software-defined Storage
Eine softwaredefinierte Infrastruktur verspricht, flexibel, skalierbar und günstig zu sein. Deshalb hat sich die Technologie gerade beim Thema Storage bewährt, und hilft, agilere, reaktionsschnellere und effektivere Rechenzentren aufzubauen. Der Software-Layer bricht Silos auf und macht Nutzer unabhängig von Hardware und von den Hardwareanbietern getriebenen Erneuerungszyklen. So muss die IT-Abteilung nicht jedes Mal die Hardware aktualisieren, nur weil ein Hersteller dies für seine Systeme verlangt. Zugleich macht es die bestehende Infrastruktur zukunftssicher für neue Herausforderungen.


Diese Funktionen zeichnen Software Defined Storage (SDS) besonders aus:

  • Kapazität über verschiedene Speichersysteme hinweg zu bündeln – unabhängig von Hardware und Anbieter
  • Automatisierung mit softwarebasierter Bereitstellung, Verwaltung und Reporting – entweder über API oder ein Management-Interface
  • Funktionsverbessernde Dienste wie etwa Auto Tiering, Leistungssteigerung, Snapshots oder Spiegelung für hohe Verfügbarkeit
  • Flexible Architekturen, die sich mit der Zeit weiterentwickeln und Speicher automatisch verlagern können – was komplexe und risikoreiche Migrationen unnötig macht, wenn neue Hardware hinzugefügt oder alte ausgemustert wird
Software-defined Storage ist etabliert und den Kinderschuhen längst entwachsen. Laut einem Gartner-Report nutzten 2017 oder davor 45 Prozent der Befragten SDS im Produktivbetrieb. 2018/2019 waren es 44 Prozent mehr – beinahe eine Verdoppelung in zwei Jahren. SDS ist keine ferne Zukunftsmusik mehr, sondern eine allgemein akzeptierte Schlüsseltechnologie.

Einer der Gründe für die wachsende Akzeptanz von Software-defined Storage ist seine Flexibilität. So können beispielsweise neue Speicher und Technologien unterbrechungsfrei hinzugefügt werden – von AFAs, NVMe zu Containern oder Cloudspeichern. Erscheint neue Hardware, ist diese dank SDS meist problemlos integrierbar– vollständige Hardwarewechsel sind nicht mehr nötig. Die Technologie erleichtert es zudem, verschiedene Speichertypen gleichzeitig zu nutzen (Direct Attached, Arrays, JBODs, Fibre Channel, iSCSI, et cetera) und gibt volle Wahlfreiheit bei den Bereitstellungsmodellen: von SANs zu hyperkonvergiert oder Hybrid Converged, einer Kombination aus beiden.

Vorteile von SDS im täglichen IT-Betrieb
Für Storage-Experten besteht fast die Hälfte ihrer Zeit und Arbeit darin, Daten von einem System zum nächsten zu migrieren. Sind durch SDS aber bereits alle Speichersysteme virtualisiert, wird es einfacher, die Kapazitäten zu planen: Das System kann dann die Daten auf Pool-Ebene verwalten und Thin Provisioning hilft dabei, die Ausnutzung zu maximieren. Die Daten lassen sich unterbrechungsfrei verschieben, oftmals unterstützt durch Machine Learning basiertes Auto Tiering über die Speichersystem hinweg. So werden die Daten auf dem dafür geeignetsten Storage System abgelegt, was wiederum die Leistungsmerkmale der verschiedenen Systeme bestmöglich ausnutzt.

Da das Auto Tiering auf Block-Level stattfindet, kann schon eine relativ kleine Investition die Gesamtperformance erheblich verbessern. Ein Beispiel: Sobald Storage-Teams den Speicherpool um einige GByte NVMe Flash erweitern, verbessert sich die Performance für alle Anwendungen und Nutzer sind produktiver. Mit Auto Tiering auf dem Storage Defined Storage Layer profitiert die IT zudem von verschiedenen Technologien und Speichern verschiedener Anbieter. Dynamisches Auto Tiering bedeutet in der Praxis, dass permanent die Ablage der Daten optimiert wird, ohne dass der Mensch eingreifen muss.


ln/Gerardo Dada, CMO bei DataCore Software

Ähnliche Beiträge

IT-Tage 2023 – Konferenz für Entwicklung, Datenbanken, DevOps, Security und KI

„Alles unter einem Dach!“ ist das Motto der IT-Tage, der Jahreskonferenz des Fachmagazins Informatik Aktuell. Unter anderem werden Subkonferenzen zu den Themen Software-Entwicklung und -Architektur, Datenbanken, DevOps, Cloud & Serverless, IT-Security, Künstliche Intelligenz, Java, Python oder .NET angeboten.

Mit Objektspeicher zur Storage-Virtualisierung 2.0

Objektbasierte Speicherung hebt die Speichervirtualisierung auf das nächste Level. Sie macht es nicht nur einfacher, eine größere Storage-Kapazität bereitzustellen, sondern kann darüber hinaus für mehr Sicherheit und eine schnellere Wiederherstellung von Daten sorgen. Warum Technologien wie Inline-Deduplizierung, Komprimierung und Verschlüsselung dafür sprechen, diesem Ansatz zu folgen und zukünftig auf eine objektbasierte Speicherung zu setzen, beschreibt dieser Fachbeitrag.

Seite 2 - Grundlagen und Chancen von Software-defined Storage

Verfügbarkeit mit SDS sicherstellen
Jedes Unternehmen ist rund um die Uhr auf zuverlässige und stets verfügbare IT-Systeme angewiesen. Und jedes Speichersystem bietet auf bestimmte Weise eine Form von Redundanz. Es gibt viele Architekturen und Konfigurationen, die ein jeweils anderes Maß der Sicherung für verschiedene Situationen bereitstellen. Redundante Hardware und redundante Daten (via RAID, Spiegelung oder anderen Technologien) sind der gängige Weg.