Fachartikel

Mit Objektspeicher zur Storage-Virtualisierung 2.0

Objektbasierte Speicherung hebt die Speichervirtualisierung auf das nächste Level. Sie macht es nicht nur einfacher, eine größere Storage-Kapazität bereitzustellen, sondern kann darüber hinaus für mehr Sicherheit und eine schnellere Wiederherstellung von Daten sorgen. Warum Technologien wie Inline-Deduplizierung, Komprimierung und Verschlüsselung dafür sprechen, diesem Ansatz zu folgen und zukünftig auf eine objektbasierte Speicherung zu setzen, beschreibt dieser Fachbeitrag.
Gerade bei wachsenden Datenmengen spielt Objektspeicher in Verbindung mit Storage-Virtualisierung seine Stärken aus.
In der IT leben wir in einer zunehmend virtuellen Welt. In dieser virtualisieren viele Unternehmen nicht nur ihre Server, sondern auch den Storage. Die Speichervirtualisierung, wie sie vor zehn bis 15 Jahren populär wurde, bezeichnet den Prozess der gemeinsamen Nutzung von Speicherressourcen, bei dem der physische Speicher unterschiedlicher Systeme in einem zentralisierten Pool an verfügbarer Kapazität zusammengeführt wird. Ziel für Unternehmen ist es hierbei, ihre Agilität und Leistung zu verbessern und gleichzeitig die Hardware- und Ressourcenkosten zu senken. Der Ansatz und die Umsetzung der Speichervirtualisierung waren jedoch – zumindest bis heute – nicht so homogen und effizient wie bei der Servervirtualisierung.

Mit der zunehmend populären objektbasierten Speicherung allerdings lassen sich Veränderungen beobachten. Dabei werden die Objekte innerhalb eines einzigen Speicherpools anstelle einer veralteten LUN/Volume-Blockspeicherstruktur verwaltet und mit den dazugehörigen Metadaten gebündelt, um einen zentralisierten Speicherpool zu bilden.

Einheitlicher Zugriff auf Objektspeicher-Pool
Objektspeicherung bringt die Speichervirtualisierung auf das nächste Level – auch als Speichervirtualisierung 2.0 bezeichnet. Mit ihr ist es einfacher, eine höhere Speicherkapazität, beispielsweise durch Inline-Deduplizierung, Komprimierung und Verschlüsselung, bereitzustellen. Darüber hinaus ermöglicht sie es Unternehmen, Speicher bei Bedarf mühelos neu zuzuweisen und gleichzeitig die damit verbundene Verwaltungskomplexität zu eliminieren.

Ein weiterer Vorteil besteht darin, dass sich Administratoren keine Gedanken über die Zuweisung einer bestimmten Kapazität an einen bestimmten Server machen müssen. Alle Server haben den einheitlichen Zugriff auf den Objektspeicher-Pool. Dadurch brauchen Unternehmen keine Kristallkugel mehr, um ihren Speicherbedarf vorherzusagen. Stattdessen können sie jederzeit und genau dosiert die Speichermenge hinzufügen, die sie benötigen. Noch besser: Sie können ihren Speicherpool ohne Unterbrechungen und ohne Ausfallzeiten ausbauen.
Mehr Sicherheit durch unveränderliche Snapshots
Der vielleicht bedeutendste Vorteil der Speichervirtualisierung 2.0 besteht darin, dass sich Daten wesentlich besser schützen und sichern lassen als mit herkömmlichen Iterationen der Speichervirtualisierung. Zwar lassen sich auch mit Legacy-Speicherlösungen Snapshots der Daten erstellen. Das Problem dabei ist aber, dass diese Snapshots nicht unveränderlich sind. Es steht zwar ein Snapshot zur Verfügung, aber wenn sich Daten ändern oder überschrieben werden, besteht keine Möglichkeit, das Original erneut zu erfassen. Sobald eine Aktualisierung vorgenommen wird, ist eine Rückkehr zu den ursprünglichen Daten nicht mehr möglich. Die alten Snapshots gehen zugunsten der neuen verloren. Mit wenigen Ausnahmen gilt dieses Prinzip bei den meisten älteren Speicherlösungen.

Beim Objektspeicher sind Snapshots unveränderlich. Aus diesem Grund können Unternehmen ihre Daten jetzt nahezu in Echtzeit erfassen und kostengünstig sichern. Unveränderliche Snapshots schützen Informationen kontinuierlich, weil sie alle 90 Sekunden erstellt werden. So ist selbst im Falle eines Datenverlusts oder eines Cyberangriffs immer ein Backup vorhanden.

Unstrukturierte Daten bändigen
Neben allen anderen Vorteilen ist Speichervirtualisierung 2.0 aber auch effektiver als die ältere Variante – insbesondere wenn es darum geht, den enormen Datenzuwachs zu bändigen. Vor allem kann sie dabei helfen, extrem große Datenmengen zu verwalten. Die meisten dieser neuen Inhalte und Daten sind unstrukturiert, und Unternehmen stellen immer häufiger fest, dass traditionelle Speicherlösungen nicht in der Lage sind, diese Daten zu managen.

Denn Unternehmen stehen vor einem Problem: Unstrukturierte Daten benötigen riesige Mengen an Speicherkapazität. IDC schätzt, dass 80 Prozent der Daten in fünf Jahren unstrukturiert sein werden. Der größte Teil dieser Daten nimmt primären Tier-1-Speicherplatz auf virtuellen Maschinen in Anspruch, was sehr kostspielig sein kann. Das muss nicht sein, denn ein Großteil dieser unstrukturierten Daten lässt sich mithilfe der Speichervirtualisierung 2.0 und der unveränderlichen Snapshots sowie zentralisierter Pooling-Funktionen auslagern.

Unternehmen müssen durch die Verlagerung der unstrukturierten Daten in den Objektspeicher diese Daten also nicht auf VMs gespeichert haben und keine Backups im herkömmlichen Sinne mehr durchführen. Da der Objektspeicher unveränderliche Snapshots erstellt und auf einem anderen Offsite-Cluster repliziert, entfallen 80 Prozent der Backup-Anforderungen eines Unternehmens. Das sorgt für eine drastische Kostensenkung. Anstatt 80 Prozent der Daten in primären Tier-1-Umgebungen zu speichern, wird jetzt alles im Objektspeicher gespeichert und geschützt.

Dieses Prinzip reduziert zudem die Wiederherstellungszeit unstrukturierter Daten von Tagen oder sogar Wochen auf weniger als eine Minute. Und das unabhängig davon, ob es sich um TByte oder sogar PByte an Daten handelt. Gleichzeitig ist das Netzwerk weniger belastet, weil es die Daten nicht mehr von einem Punkt zum anderen bewegt. Außerdem sinkt das Risiko, dass Datensicherungen fehlschlagen, weil es keine Backups im herkömmlichen Sinn mehr gibt.

Fazit
Da der Speicherbedarf steigt, benötigen Unternehmen mehr als nur eine Virtualisierung. Sie müssen bei der Speicherverwaltung einen neuen Ansatz wählen. Sie können nicht einfach die gleiche alte Technologie verwenden und auf ein anderes Ergebnis hoffen. Es ist an der Zeit, einen genaueren Blick auf unterschiedliche Speicherarchitekturen zu werfen und besser zu verstehen, welche die größten Vorteile bieten. Die Speichervirtualisierung 2.0 gibt Unternehmen die Möglichkeit, sowohl strukturierte als auch unstrukturierte Daten effizienter zu verwalten und sich gleichzeitig besser vor einem Datenverlust zu schützen. Mit anderen Worten: Objektspeicherung kann die drängendsten Probleme von IT-Administratoren und Unternehmen auf innovative und kosteneffiziente Weise lösen.
4.11.2020/ln/Florian Malecki, International Product Marketing Senior Director bei StorageCraft

Nachrichten

Geschützte und deduplizierte Daten [23.11.2020]

Die Purity-Betriebsumgebung für Pure Storage FlashArray unterstützt jetzt das mit Windows kompatible EncryptReduce. Es nutzt die Vormetric Transparent Encryption von Thales, um die Blockspeicherung auf FlashArray zu sichern, ohne die Vorteile der ständig aktiven Datendeduplizierungstechnologie im Array zu verlieren. [mehr]

Flash-Speicher für Hyperscale-Umgebungen [6.11.2020]

KIOXIA Europe hat sein Portfolio an Client-, Enterprise- und Rechenzentrums-SSDs um die Serie KIOXIA XD6 mit SSDs im Formfaktor E1.S erweitert. Die SSDs der XD6-Serie entsprechen dem E1.S-Standard und sind so auf die Anforderungen von Hyperscale-Anwendungen zugeschnitten, einschließlich der Performance-, Strom- und Kühlanforderungen der "NVMe Cloud SSD Specification" des Open Compute Projects. [mehr]

Datenbankjongleur [9.10.2020]

Tipps & Tools

Consumer vs. Enterprise-SSDs [14.11.2020]

Solid-State-Drives sind ja in zwei Varianten erhältlich: Client-SSDs für den Consumer-Bereich und Enterprise-SSDs für Server. Da der Preisunterschied doch recht groß ist, fragt sich so mancher Admin, ob er in weniger kritischen Speichersystemen auch die günstige Variante einsetzen kann. Deutliche Unterschiede sprechen jedoch dagegen. [mehr]

Energieverbrauch und Verlustleistung von Online-Storage [12.11.2020]

Getrieben von Trends wie Big Data und Industrie 4.0 wächst der Bedarf an schnellem und kostengünstigem Online-Storage rasant. Zu den wichtigsten Auswahlkriterien für Online-Speichersysteme gehören die Kosten, die Leistung, der Energieverbrauch und der Platzbedarf. Untersuchungen zeigen, dass es möglich ist, einen Online-HDD-Speicher mit einer Kapazität von 1 PByte mit einer Leistungsaufnahme von weniger als 500 Watt zu betreiben – und zwar mithilfe moderner 16-TByte-HDDs in einem vier Höheneinheiten großen JBOD. [mehr]

Buchbesprechung

Windows 10 Pannenhilfe

von Wolfram Gieseke

Anzeigen