Seite 2 - Strategien bei Backup und Archivierung

Lesezeit
2 Minuten
Bis jetzt gelesen

Seite 2 - Strategien bei Backup und Archivierung

21.10.2015 - 00:00
Veröffentlicht in:
Aber worin besteht genau der Unterschied zwischen Backups und Archiven?

  • Backups sind Kopien von Containern (Verzeichnisse, Mail-Speicher, VM-Hosts et cetera), die einen signifikanten Wert für die Wiederherstellung von zwei Wochen bis 24 Monaten haben. Daten, die jünger als zwei Wochen sind, lassen sich am besten über Snapshots wiederherstellen. Die meisten Backups, die älter als zwei Jahre sind, sind nutzlose Sicherungskopien, die die Speicherressourcen belasten.
  • Archivierung ist die bewusste Vorhaltung von Daten, die zwar eher sporadisch abgerufen werden, die entweder aus branchenspezifischen Regularien oder aus Compliance-Gründen langfristig vorgehalten werden oder die einen langfristigen Wert für das Unternehmen haben.
Das ist bei einer Archivierung wichtig
Während der KMU-Markt noch nach Archivierungslösungen sucht, um dem Datenwachstum beizukommen und Primärspeicher- sowie Backup-Kosten zu reduzieren, ist die Enterprise-Ebene schon etwas weiter: Daten werden zwar immer noch gesichert, aber statt auf Backups setzen die meisten Unternehmen auf Archivierungsansätze mit mehreren Speicherebenen. Der IT-Administrator kann den Weg der Datensicherung verlassen und einen neuen Datenmanagement-Weg beschreiten. Für den Erfolg sind jedoch einige Faktoren zu berücksichtigen.


Branchen mit anspruchsvollen Workflows verschieben die Daten mittels einer intelligenten Datenmanagement-Software
vom primären Speicher auf weitere Speicherebenen – hier am Beispiel von Quantums StoreNext-System.


Fußabdruck der Daten nehmen
Um das Backup gegenüber dem Trend des Datenwachstums wieder fitzumachen, müssen Unternehmen zuallererst ein Verständnis über die Menge der jetzt und in Zukunft zu sichernden Daten gewinnen. Dieser Schritt beinhaltet auch eine Bewertung der Relevanz von Daten. Schließlich sind nicht alle Daten oder Anwendungen unternehmenskritisch und brauchen ein Backup. So lassen sich schon mal unstrukturierte Daten, für die kein Backup benötigt wird, aus dem Backup-Stream entfernen und in die Archivierungsinfrastruktur schieben.

Unstrukturierte Daten werden klassifiziert und abhängig von ihrem Wert, Zugriffszeiten et cetera auf unterschiedlichen Speicherebenen archiviert. Durch diese Strategie wird wieder Platz auf dem Primärspeicher, im Netzwerk und in der Backup-Infrastruktur freigegeben – somit lassen sich nicht nur Kosten reduzieren sondern auch die Backup-SLAs einhalten.

Technologischen Unterbau festlegen
Traditionelle Storage-Technologien reichen nicht mehr aus, um Datenvolumina im PByte-Bereich zu verwalten, da sie in den Bereichen Verlässlichkeit und Effizienz nicht die Anforderungen erfüllen und zu teuer sind. Wer auf einen goldenen Datenmanagement-Weg hofft, wird enttäuscht. Es gibt keinen "One size fits all"-Ansatz. Was für ein Unternehmen die ideale Lösung darstellt, kann in einem anderen Unternehmen völlig kontraproduktiv sein. Je nach Geschäftsziel ist eine flexible, maßgeschneiderte und mehrstufige Architektur (Tiered Storage) zu implementieren, die unter anderem folgendes beinhalten kann:

  • Branchen mit anspruchsvollen Workflows, wie zum Beispiel Überwachungsdaten, Video-Content oder Geoinformationsdaten, verschieben die Daten mittels einer intelligenten Datenmanagement-Software vom primären Speicher auf weitere Speicherebenen.
  • Mittlerweile gibt es aktive Archivierungslösungen, NAS-Appliances mit Disk-Storage am Frontend für die aktiven Daten und einer Datenmanagement-Software für die automatisierte Verschiebung von Daten auf Tape, Object Storage oder in die Cloud, wenn die Daten altern.
  • Deduplizierungs-Appliances sind immer noch der Kern einer vernünftigen Datensicherung. Für die übrigen unternehmenskritischen Daten kann ein zweiphasiger Sicherungsansatz gewählt werden: Snapshots für schnelle Wiederherstellung mit einer Aufbewahrungszeit von wenigen Tagen und Backups von Wochen und Monaten. Durch den Einsatz der Deduplizierungstechnologie können Kosten gespart und die Replikation in die Cloud für Disaster Recovery-Schutz deutlich erleichtert werden.
  •  Idealerweise archivieren Unternehmen ältere Daten auf einer robusten Lösung. Mit Kosteneffizienz und Langlebigkeit hat Tape zwei schwergewichtige Argumente auf seiner Seite. Mit modernen LTO-Laufwerken holt Tape auch bei Performance-Aspekten auf.
  • Die Cloud bietet sich vor allem für Daten an, die nicht von Tape-basierten gesetzlichen Aufbewahrungsfristen betroffen sind oder für die Erhöhung der Backup Disaster Recovery-Verlässlichkeit.
   Seite 1: Datenwachstum erfasst jede Branche
   Seite 2: Das ist bei einer Archivierung wichtig
   Seite 3: Entlastung durch Tiering

<< Vorherige Seite Seite 2 von 3 Nächste Seite >>




ln/Stéphane Estevez, Senior Product Marketing Manager EMEA bei Quantum

Tags

Ähnliche Beiträge

Drei zentrale Herausforderungen für das Datenmanagement

Daten sind ein unverzichtbarer Vermögenswert für Unternehmen geworden. Für ITAdministratoren bedingt dies, neben fundamentalen Datenmanagement-Anforderungen, Veränderungen in den Bereichen Organisationsstruktur, Kultur und Leadership sowie Rollen und Skills voranzutreiben. Der Fachartikel zählt die drei größten Herausforderungen auf, vor denen Organisationen in Bezug auf Datenmanagement stehen.

Im Test: Power Admin Storage Monitor 9.3

Eine effiziente Planung der Storage-Landschaft und ihrer Verfügbarkeit setzt detailliertes Wissen über Beschaffenheit und Alter der gespeicherten Daten voraus. Power Admin Storage Monitor verspricht, den Datenbestand umfassend zu analysieren, laufend zu überwachen und automatisch auf Ereignisse zu reagieren. Dabei liegt der Schwerpunkt auf Windows, doch das flexible Tool bindet auch andere Speicher im Netzwerk per SNMP an.

All-Flash-Rechenzentrum beim Bio-Großhändler

Seit vielen Jahren arbeiten Storage-Anbieter daran, All-Flash-Systeme so zu konzipieren, dass sie sich nicht nur für Tier-1-Anwendungen, sondern zur Speicherung aller Daten im Rechenzentrum verwenden lassen. Das Ziel, dessen Erreichung vor allem die Anschaffungskosten im Weg standen, lautete: All-Flash-Data Center. Wie sieht es in der Praxis aus? Ein deutsches Handelsunternehmen berichtet erstmals über seine Alltagserfahrungen.