Meldung

Flash und Cloud als Zukunft der Storage-Landschaft

Auch wenn in den Köpfen vieler IT-Verantwortlicher aktuell noch Disk und Tape die dominierenden Medien rund um die Datensicherung – also unter anderem Backup – sind, so erwartet Pure Storage für die Zukunft hier einen Wandel hin zu neuen Speichermedien und Modellen. Konkret bedeutet dies: Flash und Cloud.
„In den letzten zehn Jahren gab es eine explosionsartige Zunahme von Daten. Gleichzeitig stellt die Einführung von Flash neue Leistungserwartungen an Rechenzentren. Hinzu kommt, dass Daten eine fundamentale Grundlage für das Geschäft moderner Unternehmen bilden. Diese Faktoren haben zusammengenommen dazu geführt, dass die Einführung von ambitionierten Recovery Time Objectives (RTOs), die bisher nur auf die kritischsten Workloads beschränkt waren, zum neuen Standard für die meisten Produktions-Workloads avanciert ist“, erklärt Markus Grau, Mitarbeiter im EMEA CTO Office bei Pure Storage [1].

„Als Folge daraus können Unternehmen ihre Backup-Anforderungen nicht mehr erfüllen. Noch gravierender ist, dass die Erfolgsraten von Recovery-SLAs-Backups heute zwischen 75 und 85 Prozent liegen. Selbst wenn sie erfolgreich gesichert werden, entsprechen 20 Prozent der Backups nicht der Business-RTO.“

Dies liegt daran, dass die Backup-Architektur, die von den meisten Kunden eingesetzt wird, sowohl Festplatte als auch Band umfasst. Bei dieser Backup-Strategie von Festplatte zu Festplatte (oder D2D2T für Disk-to-Disk-to-Tape) wird eine Kopie der Daten zunächst auf einer plattenbasierten Backup-Appliance und dann auf Band gespeichert. Die Kopie auf Festplatte bietet eine bessere Wiederherstellungsleistung als bei der Speicherung auf Band allein.

Deduplizierung spart Kosten

Da Festplatten teurer sind als Bänder, nutzen Backup-Appliances die Deduplizierung, um eine relativ kostengünstige plattenbasierte Backup-Lösung bereitzustellen. Selbst deduplizierte Festplatten sind immer noch nicht so günstig wie Bänder, aber die Kostendifferenz ist durch die Verbesserungen im Management mehr als gerechtfertigt. Dieser D2D2T-Ansatz ermöglichte eine schnellere Datenwiederherstellung von der Backup-Appliance, wobei Bandspeicher nur für die langfristige Aufbewahrung genutzt wird.

D2D2T half bei der Lösung einiger der Managementprobleme bei der Verwendung von Bändern. So müssen Backup-Administratoren nicht mehr nach den richtigen Bändern suchen, um eine Wiederherstellung durchzuführen, oder sich Gedanken machen, ob sie ein komplettes Set haben. Da Backup-Appliances die Festplatte zum Speichern von Backups verwenden, verbessern sie auch die Wiederherstellungszeiten. So können Datensätze in Terabyte-Größe in Stunden wiederhergestellt werden.

D2D2T hat das Backup im Vergleich zu früheren Methoden stark modernisiert, aber es brachte auch neue Herausforderungen bei der Verwaltung der Backup-Appliances mit sich. Diese lassen sich insbesondere nicht so gut skalieren. Wenn die Kapazität einer Appliance erschöpft ist, muss eine weitere angeschafft werden, und so weiter. Jede Appliance, die hinzugefügt wird, schafft jedoch eine neue Deduplizierungs- und Verwaltungszone, was zu Ineffizienzen führt.

Obwohl sie schneller als Bandspeicher sind, sind die meisten Backup-Appliances zudem bei der Wiederherstellung von Daten ineffizient. Sie sind so konzipiert, dass sie Backup-Daten so schnell wie möglich aufnehmen können, während die Wiederherstellungsleistung zweitrangig ist. Um eine schnellstmögliche Wiederherstellung zu ermöglichen, sollten Daten so schnell bereitgestellt werden, wie der Primärspeicher sie verbrauchen kann. Wenn sich die Festplatten der Appliance füllen, kann die Wiederherstellung noch langsamer werden, was es schwierig macht, ein effizientes System zu betreiben.

Warum Flash die Festplatte für Backup und Wiederherstellung ersetzt

Flash bietet Leistungssteigerungen gegenüber Festplatten. So können leistungsstarke Flash-Backups und -Wiederherstellungen eingesetzt werden, um die Geschwindigkeit der Wiederherstellung von All-Flash-Produktionssystemen so schnell anzupassen, wie die Produktionssysteme die Daten verbrauchen können. Flash-Backups können auch verwendet werden, um mehr gleichzeitige Server-Backups zu ermöglichen, zugunsten einer besseren Auslastung bei gleichem Umfang. Durch die Koppelung von Flash und Datenreduktion wird eine hohe Wirtschaftlichkeit und eine hervorragende Wiederherstellungsleistung erzielt. Das Backup-Modell der Zukunft ist daher Flash-to-Flash-to-Cloud.

Flash-to-Flash-to-Cloud

Es gibt jedoch noch einen weiteren Teil des Backup-Problems. Selbst wenn Flash-Speicher verwendet wird, um Rapid-Restore-Funktionen bereitzustellen, müssen dennoch große Datenmengen außerhalb des Unternehmens gespeichert werden für Archivierungs- und Compliance-Zwecke. Hierfür wird vielerorts weiterhin Band verwendet, was nicht nur komplex und langsam ist. Der eigentliche Nachteil der Bandspeicherung ist, dass die Daten irgendwo offline „weggesperrt“ werden – und keinen Wert für das Unternehmen generieren.

„Die Antwort ist, Bandspeicher endgültig durch kostengünstigen Cloud-Objektpeicher wie Amazon S3 zu ersetzen. Das neue Backup-Modell heißt Flash-to-Flash-to-Cloud (F2F2C)”, so Markus Grau von Pure Storage. “F2F2C wurde für die Skalierung und den Einsatz einer modernen Backup-Strategie entwickelt. Es bietet flexiblere Backup- und Wiederherstellungsoptionen sowie schnellere Wiederherstellungen zur Erfüllung anspruchsvoller RTOs. Hinzu kommen einfachere und effizientere Abläufe sowie die Kostenvorteile der Cloud. Diese Architektur nutzt lokalen Flash-Speicher für effiziente Snapshots und schnelle Wiederherstellungen.“

Gleichzeitig dient die kostengünstige, hochbelastbare, externe und selbstgeschützte Public Cloud für die langfristige Aufbewahrung. Entscheidend ist, dass Wiederherstellungsdaten, sobald sie sich in der Cloud befinden, einen zusätzlichen Geschäftswert liefern können. Dies ist der Fall, indem sie für andere Anwendungsfälle wie Test-Dev und Analysen zur Verfügung stehen.

Wie aus kalten Daten warme Daten werden

Der Backup-Markt befindet sich derzeit an einem Wendepunkt, an dem Flash und Cloud eine transformative Rolle spielen. Wenn Backup-Daten in die Cloud transferiert werden, können sie für Migration, Entwicklung/Test, Analysen etc. wiederverwendet werden. Bei der Datensicherung geht es nicht mehr nur darum, Daten zu speichern und die Kosten für eine gute Kopie zu minimieren. Es geht um flexiblen Schutz, schnelle Wiederherstellungen und vor allem darum, wertvolle Daten für andere Anwendungen wie Test/Dev und Analysen verfügbar zu machen, die den Geschäftswert steigern.

„In dieser Welt des konstanten Datenflusses wird Disk-to-Disk-to-Tape nicht mehr den Anforderungen an die Datennutzung gerecht. Heute ist Flash-to-Flash-to-Cloud für den Umfang und die Anwendungsfälle der modernen Cloud-Datensicherung konzipiert und damit ein entscheidender Erfolgsfaktor für moderne Unternehmen“, fasst Markus Grau abschließend zusammen.
16.04.2019/dr

Tipps & Tools

Katalogbackup regelmäßig durchführen [21.07.2019]

Viele Admins, die Veritas NetBackup nutzen, fragen sich, wie sie bei einem Katalogbackup die ideale Aufbewahrungsrichtlinie (Data Retention Policy) aufsetzen und ob diese identisch zur längsten Periode sein muss, mit der sie beim Backup arbeiten. Auf was tatsächlich geachtet werden sollte, zeigt Ihnen dieser Tipp. [mehr]

Großes Storage-Gewinnspiel [15.07.2019]

Die Datenmengen in Unternehmen wachsen stetig an. Ihre Speicherung und schnelle Bereitstellung wird zu einer immer größeren Herausforderung. storage2day, die neue Konferenz für Speichernetze und Datenmanagement, präsentiert an zwei Tagen im September Grundlagen, bewährte Lösungen für den Praxiseinsatz und zukünftige Entwicklungen. IT-Administrator verlost für die Konferenz drei Eintrittskarten im Wert von jeweils 895 Euro. Außerdem gibt es noch viel Lesematerial zum Thema zu gewinnen. [mehr]

Fachartikel

Data-Warehouse-Automatisierung beim Landmaschinenhersteller [17.07.2019]

Weil die Integration der ständig steigenden Zahl von heterogenen Datenquellen mit einem klassischen Ansatz nicht mehr zu bewältigen war, haben die norddeutschen Amazonen-Werke ihr Data Warehouse vollständig neu aufgesetzt. Wie der Anwenderbericht zeigt, setzten sie dabei von Beginn an auf eine Automatisierungsstrategie. Um die reibungslose Erweiterbarkeit des entstehenden Enterprise Data Warehouse weiter zu unterstützen, entschieden sich die Verantwortlichen für ein Design nach den Grundsätzen des Data Vault 2.0. [mehr]

Buchbesprechung

Anzeigen