Objektspeicher plus Dateispeicher, nicht Entweder-oder

Lesezeit
3 Minuten
Bis jetzt gelesen

Objektspeicher plus Dateispeicher, nicht Entweder-oder

03.10.2018 - 14:00
Veröffentlicht in:
Datei- und Objektspeicherarchitekturen wurden lange Zeit als zwei sich gegenseitig ausschließende Ansätze angesehen. Als Bindeglied fungierende File-Systeme machen diese Entweder-oder-Denkweise jedoch obsolet. Mit ihrem Einsatz lassen sich technische Hürden überwinden, die dem Zusammenspiel beider Welten bisher entgegenstanden. Welche Funktionen sie hierfür mitbringen und wie Unternehmen in der Praxis bereits von der Kombination File und Object Storage profitieren, zeigt dieser Beitrag.
Die Entwicklung von Speichersystemen erfolgte in einer Zeit, in der niemand mit einer solch explosionsartigen Zunahme an zu bewältigenden Daten rechnete. Ebenso wenig damit, dass unstrukturierte Informationen das Gros stellen würden. Insofern ist die Architektur der Systeme von Haus aus nicht auf diese Entwicklung ausgelegt. Anders sieht es hingegen bei Objektspeichern aus, die sich durch eine nahezu unbegrenzte Skalierbarkeit auszeichnen und daher selbst für größte Datenmengen ausreichend Raum bieten.

Das dem Objektspeicher innewohnende Potenzial erkannten zunächst die Public-Cloud-Anbieter und so stellt Objektspeicher schon längst die Basis von Azure Blob Storage, Amazon S3 oder Google Cloud. Ebenso legen sie das Fundament für viele weitere private und öffentliche Cloud-Speicherplattformen, darunter IBM Cloud Object Storage (COS), Dell EMC Elastic Cloud Storage (ECS), Hitachi Content Platform (HCP), Cloudian oder Scality.

Doch trotz der ihnen zugesprochenen Skalierungs- und Kostenvorteile setzte sich Object Storage nicht in der Geschwindigkeit und dem Maß durch wie eingangs prognostiziert. Dies könnte sich durch den Einzug objektspeicherbasierter globaler Dateisysteme ändern. Mit auf ihnen beruhenden Lösungen lässt sich das Potenzial des "neuen Laufwerks" erschließen, ohne dass auf die Vorzüge der dateiorientierten Speicherung verzichtet werden muss.

Geringere monatliche Nutzungskosten und Abrufgebühren
Private und öffentliche Cloud-Objektspeicher eignen sich nach landläufiger Meinung in erster Linie für die Sicherung und Archivierung von Daten, auf die kaum oder gar nicht zugegriffen wird. Weniger hingegen für die Speicherung aktiver, häufig verwendeter Dateien oder Datensätze, da jeder Abruf Gebühren verursacht. Sie weiterhin lokal auf Dateiservern und NAS-Geräten vorzuhalten, scheint vielen Unternehmen daher als nach wie vor als die kalkulierbarere Variante.

Ein globales für Objektspeicher entwickeltes Dateisystem, dass sich über alle Standorte hinweg erstreckt, eröffnet Unternehmen jedoch die Möglichkeit, alle Daten plus der mit ihnen verbundenen Metadaten in privaten und öffentlichen Clouds zu speichern. Die aktiven Daten sind dennoch überall direkt zur Hand, da sie weiterhin an jedem Standort vorgehalten werden. Hierfür sind allerdings nicht länger Dateiserver oder NAS-Systeme nötig. Physische oder virtuelle Edge-Appliances übernehmen ihre Rolle. Sie unterstützen dieselben File-Sharing-Protokolle wie die Klassiker – CIFS/SMB, NFS oder sogar FTP – und arbeiten mit intelligenten Caching-Algorithmen, die für eine Trefferrate von fast 99 Prozent sorgen. Dadurch müssen Daten in den seltensten Fällen aus den Cloudspeichern abgerufen werden und damit verbundenen Kosten lassen sich vermeiden.

Hinzu kommt, dass Dateien vor der Übertragung in den Cloudspeicher komprimiert und dedupliziert werden, sodass sie im Schnitt bis zu 40 Prozent weniger Speicherplatz beanspruchen. In Folge dessen sinken auch die monatlichen Nutzungsgebühren.

Schneller Zugriff auf aktive Dateien
Der Einsatz von Edge-Appliances, die sich den Anwendern wie Dateiserver oder NAS-Geräte präsentieren, bietet einen weiteren entscheidenden Vorteil. Da aktive Daten auf diesen zwischengespeichert werden, können Nutzer in LAN-Geschwindigkeit wie gewohnt auf die in freigegebenen Verzeichnissen liegenden Dateien zugreifen. Diese werden fortlaufend und automatisch synchronisiert, sodass der Abruf über öffentliche Internet- und WAN-Verbindungen oder aber VPNs mit häufig unzureichender Bandbreite die Ausnahme bleibt. Dies hebt das Objektspeichern häufig zugesprochene Defizit der Latenzanfälligkeit auf.

Unternehmen können wählen, ob sie mit physischen oder virtuellen Edge-Appliances arbeiten möchten. Letztere lassen sich in der bestehenden hyperkonvergenten Infrastruktur oder auf bereits vorhandenen Flash-Arrays installieren. Noch ein Pluspunkt: Sowohl I/O-Leistung als auch die Kapazität können frei skaliert werden, sodass sich die Lösungen passgenau auf die individuellen Anforderungen der einzelnen Standorte abstimmen lassen.

Vertraute hierarchische Ordnerstruktur
Die nahezu unbegrenzte Skalierbarkeit verdanken Objektspeicher dem Ansatz, dass Daten als binäre Objekte in einem flachen, globalen Namensraum abgelegt werden. Diese setzen sich aus den eigentlichen Daten, zugehörigen Metadaten und einer eindeutigen Kennung zusammen. Darüber hinaus lässt sich ihnen für das schnelle Auffinden eine unbegrenzte Zahl an weiteren individuell definierbaren Attributen zuweisen.

Bei Fileservern oder NAS-Systemen, die mit klassischen Dateisystemen arbeiten, werden Daten einschließlich ihrer auf wesentliche Dateiattribute beschränkten Metadaten hingegen in einer hierarchisch angelegten verzweigten Baumstruktur gespeichert. Hier liegt auch die Schwäche, denn je mehr Informationen hinzukommen, desto komplexer gestalten sich die Verzeichnisse und deren Verwaltung.

Dennoch bevorzugen Anwender diesen Ansatz, da er an die in früheren Zeiten für die Ablage von Dokumenten genutzten Verfahren – Aktenschränke mit Schubladen oder Ordnern mit Trennblättern – angelehnt ist. Insofern kommt ihnen die für die Organisation von Gruppenfreigaben, Projektverzeichnissen, Home-Laufwerken genutzte hierarchisch aufgebaute und einfach zu navigierende Struktur klassischer File-Systeme entgegen.

Für Objektspeicher konzipierte cloudfähige Dateisysteme sollten daher so ausgelegt sein, dass sie für den Zugriff auf die im globalen flachen Adressraum vorgehaltenen Dateien ebenso das vertraute Modell verwenden. Dadurch lässt sich erreichen, dass Anwender der neuen Technologie aufgeschlossen gegenüberstehen, das wiederum beschleunigt deren Einführung.

Seite 1: Schneller Zugriff auf aktive Dateien


Seite 1 von 2 Nächste Seite >>


ln/Zeljko Dodlek, Sales Manager DACH bei Nasuni

Tags

Ähnliche Beiträge

Drei zentrale Herausforderungen für das Datenmanagement

Daten sind ein unverzichtbarer Vermögenswert für Unternehmen geworden. Für ITAdministratoren bedingt dies, neben fundamentalen Datenmanagement-Anforderungen, Veränderungen in den Bereichen Organisationsstruktur, Kultur und Leadership sowie Rollen und Skills voranzutreiben. Der Fachartikel zählt die drei größten Herausforderungen auf, vor denen Organisationen in Bezug auf Datenmanagement stehen.

Im Test: Power Admin Storage Monitor 9.3

Eine effiziente Planung der Storage-Landschaft und ihrer Verfügbarkeit setzt detailliertes Wissen über Beschaffenheit und Alter der gespeicherten Daten voraus. Power Admin Storage Monitor verspricht, den Datenbestand umfassend zu analysieren, laufend zu überwachen und automatisch auf Ereignisse zu reagieren. Dabei liegt der Schwerpunkt auf Windows, doch das flexible Tool bindet auch andere Speicher im Netzwerk per SNMP an.

All-Flash-Rechenzentrum beim Bio-Großhändler

Seit vielen Jahren arbeiten Storage-Anbieter daran, All-Flash-Systeme so zu konzipieren, dass sie sich nicht nur für Tier-1-Anwendungen, sondern zur Speicherung aller Daten im Rechenzentrum verwenden lassen. Das Ziel, dessen Erreichung vor allem die Anschaffungskosten im Weg standen, lautete: All-Flash-Data Center. Wie sieht es in der Praxis aus? Ein deutsches Handelsunternehmen berichtet erstmals über seine Alltagserfahrungen.