Mit Objektspeicher zur Storage-Virtualisierung 2.0

Lesezeit
3 Minuten
Bis jetzt gelesen

Mit Objektspeicher zur Storage-Virtualisierung 2.0

04.11.2020 - 14:00
Veröffentlicht in:
Objektbasierte Speicherung hebt die Speichervirtualisierung auf das nächste Level. Sie macht es nicht nur einfacher, eine größere Storage-Kapazität bereitzustellen, sondern kann darüber hinaus für mehr Sicherheit und eine schnellere Wiederherstellung von Daten sorgen. Warum Technologien wie Inline-Deduplizierung, Komprimierung und Verschlüsselung dafür sprechen, diesem Ansatz zu folgen und zukünftig auf eine objektbasierte Speicherung zu setzen, beschreibt dieser Fachbeitrag.
In der IT leben wir in einer zunehmend virtuellen Welt. In dieser virtualisieren viele Unternehmen nicht nur ihre Server, sondern auch den Storage. Die Speichervirtualisierung, wie sie vor zehn bis 15 Jahren populär wurde, bezeichnet den Prozess der gemeinsamen Nutzung von Speicherressourcen, bei dem der physische Speicher unterschiedlicher Systeme in einem zentralisierten Pool an verfügbarer Kapazität zusammengeführt wird. Ziel für Unternehmen ist es hierbei, ihre Agilität und Leistung zu verbessern und gleichzeitig die Hardware- und Ressourcenkosten zu senken. Der Ansatz und die Umsetzung der Speichervirtualisierung waren jedoch – zumindest bis heute – nicht so homogen und effizient wie bei der Servervirtualisierung.

Mit der zunehmend populären objektbasierten Speicherung allerdings lassen sich Veränderungen beobachten. Dabei werden die Objekte innerhalb eines einzigen Speicherpools anstelle einer veralteten LUN/Volume-Blockspeicherstruktur verwaltet und mit den dazugehörigen Metadaten gebündelt, um einen zentralisierten Speicherpool zu bilden.

Einheitlicher Zugriff auf Objektspeicher-Pool
Objektspeicherung bringt die Speichervirtualisierung auf das nächste Level – auch als Speichervirtualisierung 2.0 bezeichnet. Mit ihr ist es einfacher, eine höhere Speicherkapazität, beispielsweise durch Inline-Deduplizierung, Komprimierung und Verschlüsselung, bereitzustellen. Darüber hinaus ermöglicht sie es Unternehmen, Speicher bei Bedarf mühelos neu zuzuweisen und gleichzeitig die damit verbundene Verwaltungskomplexität zu eliminieren.

Ein weiterer Vorteil besteht darin, dass sich Administratoren keine Gedanken über die Zuweisung einer bestimmten Kapazität an einen bestimmten Server machen müssen. Alle Server haben den einheitlichen Zugriff auf den Objektspeicher-Pool. Dadurch brauchen Unternehmen keine Kristallkugel mehr, um ihren Speicherbedarf vorherzusagen. Stattdessen können sie jederzeit und genau dosiert die Speichermenge hinzufügen, die sie benötigen. Noch besser: Sie können ihren Speicherpool ohne Unterbrechungen und ohne Ausfallzeiten ausbauen.

Mehr Sicherheit durch unveränderliche Snapshots
Der vielleicht bedeutendste Vorteil der Speichervirtualisierung 2.0 besteht darin, dass sich Daten wesentlich besser schützen und sichern lassen als mit herkömmlichen Iterationen der Speichervirtualisierung. Zwar lassen sich auch mit Legacy-Speicherlösungen Snapshots der Daten erstellen. Das Problem dabei ist aber, dass diese Snapshots nicht unveränderlich sind. Es steht zwar ein Snapshot zur Verfügung, aber wenn sich Daten ändern oder überschrieben werden, besteht keine Möglichkeit, das Original erneut zu erfassen. Sobald eine Aktualisierung vorgenommen wird, ist eine Rückkehr zu den ursprünglichen Daten nicht mehr möglich. Die alten Snapshots gehen zugunsten der neuen verloren. Mit wenigen Ausnahmen gilt dieses Prinzip bei den meisten älteren Speicherlösungen.

Beim Objektspeicher sind Snapshots unveränderlich. Aus diesem Grund können Unternehmen ihre Daten jetzt nahezu in Echtzeit erfassen und kostengünstig sichern. Unveränderliche Snapshots schützen Informationen kontinuierlich, weil sie alle 90 Sekunden erstellt werden. So ist selbst im Falle eines Datenverlusts oder eines Cyberangriffs immer ein Backup vorhanden.

Unstrukturierte Daten bändigen
Neben allen anderen Vorteilen ist Speichervirtualisierung 2.0 aber auch effektiver als die ältere Variante – insbesondere wenn es darum geht, den enormen Datenzuwachs zu bändigen. Vor allem kann sie dabei helfen, extrem große Datenmengen zu verwalten. Die meisten dieser neuen Inhalte und Daten sind unstrukturiert, und Unternehmen stellen immer häufiger fest, dass traditionelle Speicherlösungen nicht in der Lage sind, diese Daten zu managen.

Denn Unternehmen stehen vor einem Problem: Unstrukturierte Daten benötigen riesige Mengen an Speicherkapazität. IDC schätzt, dass 80 Prozent der Daten in fünf Jahren unstrukturiert sein werden. Der größte Teil dieser Daten nimmt primären Tier-1-Speicherplatz auf virtuellen Maschinen in Anspruch, was sehr kostspielig sein kann. Das muss nicht sein, denn ein Großteil dieser unstrukturierten Daten lässt sich mithilfe der Speichervirtualisierung 2.0 und der unveränderlichen Snapshots sowie zentralisierter Pooling-Funktionen auslagern.

Unternehmen müssen durch die Verlagerung der unstrukturierten Daten in den Objektspeicher diese Daten also nicht auf VMs gespeichert haben und keine Backups im herkömmlichen Sinne mehr durchführen. Da der Objektspeicher unveränderliche Snapshots erstellt und auf einem anderen Offsite-Cluster repliziert, entfallen 80 Prozent der Backup-Anforderungen eines Unternehmens. Das sorgt für eine drastische Kostensenkung. Anstatt 80 Prozent der Daten in primären Tier-1-Umgebungen zu speichern, wird jetzt alles im Objektspeicher gespeichert und geschützt.

Dieses Prinzip reduziert zudem die Wiederherstellungszeit unstrukturierter Daten von Tagen oder sogar Wochen auf weniger als eine Minute. Und das unabhängig davon, ob es sich um TByte oder sogar PByte an Daten handelt. Gleichzeitig ist das Netzwerk weniger belastet, weil es die Daten nicht mehr von einem Punkt zum anderen bewegt. Außerdem sinkt das Risiko, dass Datensicherungen fehlschlagen, weil es keine Backups im herkömmlichen Sinn mehr gibt.

Fazit
Da der Speicherbedarf steigt, benötigen Unternehmen mehr als nur eine Virtualisierung. Sie müssen bei der Speicherverwaltung einen neuen Ansatz wählen. Sie können nicht einfach die gleiche alte Technologie verwenden und auf ein anderes Ergebnis hoffen. Es ist an der Zeit, einen genaueren Blick auf unterschiedliche Speicherarchitekturen zu werfen und besser zu verstehen, welche die größten Vorteile bieten. Die Speichervirtualisierung 2.0 gibt Unternehmen die Möglichkeit, sowohl strukturierte als auch unstrukturierte Daten effizienter zu verwalten und sich gleichzeitig besser vor einem Datenverlust zu schützen. Mit anderen Worten: Objektspeicherung kann die drängendsten Probleme von IT-Administratoren und Unternehmen auf innovative und kosteneffiziente Weise lösen.

ln/Florian Malecki, International Product Marketing Senior Director bei StorageCraft

Ähnliche Beiträge

IT-Tage 2023 – Konferenz für Entwicklung, Datenbanken, DevOps, Security und KI

„Alles unter einem Dach!“ ist das Motto der IT-Tage, der Jahreskonferenz des Fachmagazins Informatik Aktuell. Unter anderem werden Subkonferenzen zu den Themen Software-Entwicklung und -Architektur, Datenbanken, DevOps, Cloud & Serverless, IT-Security, Künstliche Intelligenz, Java, Python oder .NET angeboten.

Seite 2 - Grundlagen und Chancen von Software-defined Storage

Verfügbarkeit mit SDS sicherstellen
Jedes Unternehmen ist rund um die Uhr auf zuverlässige und stets verfügbare IT-Systeme angewiesen. Und jedes Speichersystem bietet auf bestimmte Weise eine Form von Redundanz. Es gibt viele Architekturen und Konfigurationen, die ein jeweils anderes Maß der Sicherung für verschiedene Situationen bereitstellen. Redundante Hardware und redundante Daten (via RAID, Spiegelung oder anderen Technologien) sind der gängige Weg.

Grundlagen und Chancen von Software-defined Storage

Storage ist nicht gerade sexy, aber das Herz der IT. Große Teile der Budgets wandern deshalb in mehr Kapazität. Egal ob hyperkonvergierte Architekturen, smarte All-Flash-Arrays, NVMe-Speicher oder die Cloud – mit der Entscheidung für Technologien oder einen Anbieter sind Unternehmen in der Regel für Jahre gebunden. Anders stell sich dies in einer Software-definierten Infrastruktur dar. Wie der Fachbeitrag zeigt, haben sie sich gerade im Speicherumfeld bewährt, um Rechenzentren agiler, reaktionsschneller und nicht zuletzt zukunftssicherer zu machen.