Fachartikel

Mit Objektspeicher zur Storage-Virtualisierung 2.0

Objektbasierte Speicherung hebt die Speichervirtualisierung auf das nächste Level. Sie macht es nicht nur einfacher, eine größere Storage-Kapazität bereitzustellen, sondern kann darüber hinaus für mehr Sicherheit und eine schnellere Wiederherstellung von Daten sorgen. Warum Technologien wie Inline-Deduplizierung, Komprimierung und Verschlüsselung dafür sprechen, diesem Ansatz zu folgen und zukünftig auf eine objektbasierte Speicherung zu setzen, beschreibt dieser Fachbeitrag.
Gerade bei wachsenden Datenmengen spielt Objektspeicher in Verbindung mit Storage-Virtualisierung seine Stärken aus.
In der IT leben wir in einer zunehmend virtuellen Welt. In dieser virtualisieren viele Unternehmen nicht nur ihre Server, sondern auch den Storage. Die Speichervirtualisierung, wie sie vor zehn bis 15 Jahren populär wurde, bezeichnet den Prozess der gemeinsamen Nutzung von Speicherressourcen, bei dem der physische Speicher unterschiedlicher Systeme in einem zentralisierten Pool an verfügbarer Kapazität zusammengeführt wird. Ziel für Unternehmen ist es hierbei, ihre Agilität und Leistung zu verbessern und gleichzeitig die Hardware- und Ressourcenkosten zu senken. Der Ansatz und die Umsetzung der Speichervirtualisierung waren jedoch – zumindest bis heute – nicht so homogen und effizient wie bei der Servervirtualisierung.

Mit der zunehmend populären objektbasierten Speicherung allerdings lassen sich Veränderungen beobachten. Dabei werden die Objekte innerhalb eines einzigen Speicherpools anstelle einer veralteten LUN/Volume-Blockspeicherstruktur verwaltet und mit den dazugehörigen Metadaten gebündelt, um einen zentralisierten Speicherpool zu bilden.

Einheitlicher Zugriff auf Objektspeicher-Pool
Objektspeicherung bringt die Speichervirtualisierung auf das nächste Level – auch als Speichervirtualisierung 2.0 bezeichnet. Mit ihr ist es einfacher, eine höhere Speicherkapazität, beispielsweise durch Inline-Deduplizierung, Komprimierung und Verschlüsselung, bereitzustellen. Darüber hinaus ermöglicht sie es Unternehmen, Speicher bei Bedarf mühelos neu zuzuweisen und gleichzeitig die damit verbundene Verwaltungskomplexität zu eliminieren.

Ein weiterer Vorteil besteht darin, dass sich Administratoren keine Gedanken über die Zuweisung einer bestimmten Kapazität an einen bestimmten Server machen müssen. Alle Server haben den einheitlichen Zugriff auf den Objektspeicher-Pool. Dadurch brauchen Unternehmen keine Kristallkugel mehr, um ihren Speicherbedarf vorherzusagen. Stattdessen können sie jederzeit und genau dosiert die Speichermenge hinzufügen, die sie benötigen. Noch besser: Sie können ihren Speicherpool ohne Unterbrechungen und ohne Ausfallzeiten ausbauen.
Mehr Sicherheit durch unveränderliche Snapshots
Der vielleicht bedeutendste Vorteil der Speichervirtualisierung 2.0 besteht darin, dass sich Daten wesentlich besser schützen und sichern lassen als mit herkömmlichen Iterationen der Speichervirtualisierung. Zwar lassen sich auch mit Legacy-Speicherlösungen Snapshots der Daten erstellen. Das Problem dabei ist aber, dass diese Snapshots nicht unveränderlich sind. Es steht zwar ein Snapshot zur Verfügung, aber wenn sich Daten ändern oder überschrieben werden, besteht keine Möglichkeit, das Original erneut zu erfassen. Sobald eine Aktualisierung vorgenommen wird, ist eine Rückkehr zu den ursprünglichen Daten nicht mehr möglich. Die alten Snapshots gehen zugunsten der neuen verloren. Mit wenigen Ausnahmen gilt dieses Prinzip bei den meisten älteren Speicherlösungen.

Beim Objektspeicher sind Snapshots unveränderlich. Aus diesem Grund können Unternehmen ihre Daten jetzt nahezu in Echtzeit erfassen und kostengünstig sichern. Unveränderliche Snapshots schützen Informationen kontinuierlich, weil sie alle 90 Sekunden erstellt werden. So ist selbst im Falle eines Datenverlusts oder eines Cyberangriffs immer ein Backup vorhanden.

Unstrukturierte Daten bändigen
Neben allen anderen Vorteilen ist Speichervirtualisierung 2.0 aber auch effektiver als die ältere Variante – insbesondere wenn es darum geht, den enormen Datenzuwachs zu bändigen. Vor allem kann sie dabei helfen, extrem große Datenmengen zu verwalten. Die meisten dieser neuen Inhalte und Daten sind unstrukturiert, und Unternehmen stellen immer häufiger fest, dass traditionelle Speicherlösungen nicht in der Lage sind, diese Daten zu managen.

Denn Unternehmen stehen vor einem Problem: Unstrukturierte Daten benötigen riesige Mengen an Speicherkapazität. IDC schätzt, dass 80 Prozent der Daten in fünf Jahren unstrukturiert sein werden. Der größte Teil dieser Daten nimmt primären Tier-1-Speicherplatz auf virtuellen Maschinen in Anspruch, was sehr kostspielig sein kann. Das muss nicht sein, denn ein Großteil dieser unstrukturierten Daten lässt sich mithilfe der Speichervirtualisierung 2.0 und der unveränderlichen Snapshots sowie zentralisierter Pooling-Funktionen auslagern.

Unternehmen müssen durch die Verlagerung der unstrukturierten Daten in den Objektspeicher diese Daten also nicht auf VMs gespeichert haben und keine Backups im herkömmlichen Sinne mehr durchführen. Da der Objektspeicher unveränderliche Snapshots erstellt und auf einem anderen Offsite-Cluster repliziert, entfallen 80 Prozent der Backup-Anforderungen eines Unternehmens. Das sorgt für eine drastische Kostensenkung. Anstatt 80 Prozent der Daten in primären Tier-1-Umgebungen zu speichern, wird jetzt alles im Objektspeicher gespeichert und geschützt.

Dieses Prinzip reduziert zudem die Wiederherstellungszeit unstrukturierter Daten von Tagen oder sogar Wochen auf weniger als eine Minute. Und das unabhängig davon, ob es sich um TByte oder sogar PByte an Daten handelt. Gleichzeitig ist das Netzwerk weniger belastet, weil es die Daten nicht mehr von einem Punkt zum anderen bewegt. Außerdem sinkt das Risiko, dass Datensicherungen fehlschlagen, weil es keine Backups im herkömmlichen Sinn mehr gibt.

Fazit
Da der Speicherbedarf steigt, benötigen Unternehmen mehr als nur eine Virtualisierung. Sie müssen bei der Speicherverwaltung einen neuen Ansatz wählen. Sie können nicht einfach die gleiche alte Technologie verwenden und auf ein anderes Ergebnis hoffen. Es ist an der Zeit, einen genaueren Blick auf unterschiedliche Speicherarchitekturen zu werfen und besser zu verstehen, welche die größten Vorteile bieten. Die Speichervirtualisierung 2.0 gibt Unternehmen die Möglichkeit, sowohl strukturierte als auch unstrukturierte Daten effizienter zu verwalten und sich gleichzeitig besser vor einem Datenverlust zu schützen. Mit anderen Worten: Objektspeicherung kann die drängendsten Probleme von IT-Administratoren und Unternehmen auf innovative und kosteneffiziente Weise lösen.
4.11.2020/ln/Florian Malecki, International Product Marketing Senior Director bei StorageCraft

Nachrichten

Speichergigant [18.02.2021]

Mit der MG09-Serie hat Toshiba HDD-Modelle angekündigt, die eine energieunterstützte Aufzeichnungstechnologie nutzen. Die Festplatten basieren auf Toshibas proprietärem Festplattendesign mit neun Disks und setzen auf das Flux Control Microwave Assisted Magnetic Recording, um die Datendichte auf 2 TByte pro Disk zu erhöhen, sodass die Gesamtkapazität auf 18 TByte steigt. [mehr]

Einen Zahn zulegen [21.01.2021]

Mit der "Samsung 870 EVO" erhalten die SSDs der EVO-Serie Zuwachs. Die Festplatte liefert maximale Lese- und Schreibgeschwindigkeiten von bis zu 560 MByte/s beziehungsweise 530 MByte/s. Bei der zufälligen Lesegeschwindigkeit legt die Neuvorstellung gegenüber dem Vorgängermodel laut Hersteller um bis zu 38 Prozent zu. [mehr]

Tipps & Tools

Consumer vs. Enterprise-SSDs [14.11.2020]

Solid-State-Drives sind ja in zwei Varianten erhältlich: Client-SSDs für den Consumer-Bereich und Enterprise-SSDs für Server. Da der Preisunterschied doch recht groß ist, fragt sich so mancher Admin, ob er in weniger kritischen Speichersystemen auch die günstige Variante einsetzen kann. Deutliche Unterschiede sprechen jedoch dagegen. [mehr]

Energieverbrauch und Verlustleistung von Online-Storage [12.11.2020]

Getrieben von Trends wie Big Data und Industrie 4.0 wächst der Bedarf an schnellem und kostengünstigem Online-Storage rasant. Zu den wichtigsten Auswahlkriterien für Online-Speichersysteme gehören die Kosten, die Leistung, der Energieverbrauch und der Platzbedarf. Untersuchungen zeigen, dass es möglich ist, einen Online-HDD-Speicher mit einer Kapazität von 1 PByte mit einer Leistungsaufnahme von weniger als 500 Watt zu betreiben – und zwar mithilfe moderner 16-TByte-HDDs in einem vier Höheneinheiten großen JBOD. [mehr]

Buchbesprechung

Computernetze und Internet of Things

von Patrick-Benjamin Bök, Andreas Noack, Marcel Müller

Anzeigen