Lesezeit
2 Minuten
Seite 2 - Strategien bei Backup und Archivierung
Aber worin besteht genau der Unterschied zwischen Backups und Archiven?
Während der KMU-Markt noch nach Archivierungslösungen sucht, um dem Datenwachstum beizukommen und Primärspeicher- sowie Backup-Kosten zu reduzieren, ist die Enterprise-Ebene schon etwas weiter: Daten werden zwar immer noch gesichert, aber statt auf Backups setzen die meisten Unternehmen auf Archivierungsansätze mit mehreren Speicherebenen. Der IT-Administrator kann den Weg der Datensicherung verlassen und einen neuen Datenmanagement-Weg beschreiten. Für den Erfolg sind jedoch einige Faktoren zu berücksichtigen.
Branchen mit anspruchsvollen Workflows verschieben die Daten mittels einer intelligenten Datenmanagement-Software
vom primären Speicher auf weitere Speicherebenen – hier am Beispiel von Quantums StoreNext-System.
Fußabdruck der Daten nehmen
Um das Backup gegenüber dem Trend des Datenwachstums wieder fitzumachen, müssen Unternehmen zuallererst ein Verständnis über die Menge der jetzt und in Zukunft zu sichernden Daten gewinnen. Dieser Schritt beinhaltet auch eine Bewertung der Relevanz von Daten. Schließlich sind nicht alle Daten oder Anwendungen unternehmenskritisch und brauchen ein Backup. So lassen sich schon mal unstrukturierte Daten, für die kein Backup benötigt wird, aus dem Backup-Stream entfernen und in die Archivierungsinfrastruktur schieben.
Unstrukturierte Daten werden klassifiziert und abhängig von ihrem Wert, Zugriffszeiten et cetera auf unterschiedlichen Speicherebenen archiviert. Durch diese Strategie wird wieder Platz auf dem Primärspeicher, im Netzwerk und in der Backup-Infrastruktur freigegeben – somit lassen sich nicht nur Kosten reduzieren sondern auch die Backup-SLAs einhalten.
Technologischen Unterbau festlegen
Traditionelle Storage-Technologien reichen nicht mehr aus, um Datenvolumina im PByte-Bereich zu verwalten, da sie in den Bereichen Verlässlichkeit und Effizienz nicht die Anforderungen erfüllen und zu teuer sind. Wer auf einen goldenen Datenmanagement-Weg hofft, wird enttäuscht. Es gibt keinen "One size fits all"-Ansatz. Was für ein Unternehmen die ideale Lösung darstellt, kann in einem anderen Unternehmen völlig kontraproduktiv sein. Je nach Geschäftsziel ist eine flexible, maßgeschneiderte und mehrstufige Architektur (Tiered Storage) zu implementieren, die unter anderem folgendes beinhalten kann:
Seite 2: Das ist bei einer Archivierung wichtig
Seite 3: Entlastung durch Tiering
ln/Stéphane Estevez, Senior Product Marketing Manager EMEA bei Quantum
- Backups sind Kopien von Containern (Verzeichnisse, Mail-Speicher, VM-Hosts et cetera), die einen signifikanten Wert für die Wiederherstellung von zwei Wochen bis 24 Monaten haben. Daten, die jünger als zwei Wochen sind, lassen sich am besten über Snapshots wiederherstellen. Die meisten Backups, die älter als zwei Jahre sind, sind nutzlose Sicherungskopien, die die Speicherressourcen belasten.
- Archivierung ist die bewusste Vorhaltung von Daten, die zwar eher sporadisch abgerufen werden, die entweder aus branchenspezifischen Regularien oder aus Compliance-Gründen langfristig vorgehalten werden oder die einen langfristigen Wert für das Unternehmen haben.
Während der KMU-Markt noch nach Archivierungslösungen sucht, um dem Datenwachstum beizukommen und Primärspeicher- sowie Backup-Kosten zu reduzieren, ist die Enterprise-Ebene schon etwas weiter: Daten werden zwar immer noch gesichert, aber statt auf Backups setzen die meisten Unternehmen auf Archivierungsansätze mit mehreren Speicherebenen. Der IT-Administrator kann den Weg der Datensicherung verlassen und einen neuen Datenmanagement-Weg beschreiten. Für den Erfolg sind jedoch einige Faktoren zu berücksichtigen.
Branchen mit anspruchsvollen Workflows verschieben die Daten mittels einer intelligenten Datenmanagement-Software
vom primären Speicher auf weitere Speicherebenen – hier am Beispiel von Quantums StoreNext-System.
Fußabdruck der Daten nehmen
Um das Backup gegenüber dem Trend des Datenwachstums wieder fitzumachen, müssen Unternehmen zuallererst ein Verständnis über die Menge der jetzt und in Zukunft zu sichernden Daten gewinnen. Dieser Schritt beinhaltet auch eine Bewertung der Relevanz von Daten. Schließlich sind nicht alle Daten oder Anwendungen unternehmenskritisch und brauchen ein Backup. So lassen sich schon mal unstrukturierte Daten, für die kein Backup benötigt wird, aus dem Backup-Stream entfernen und in die Archivierungsinfrastruktur schieben.
Unstrukturierte Daten werden klassifiziert und abhängig von ihrem Wert, Zugriffszeiten et cetera auf unterschiedlichen Speicherebenen archiviert. Durch diese Strategie wird wieder Platz auf dem Primärspeicher, im Netzwerk und in der Backup-Infrastruktur freigegeben – somit lassen sich nicht nur Kosten reduzieren sondern auch die Backup-SLAs einhalten.
Technologischen Unterbau festlegen
Traditionelle Storage-Technologien reichen nicht mehr aus, um Datenvolumina im PByte-Bereich zu verwalten, da sie in den Bereichen Verlässlichkeit und Effizienz nicht die Anforderungen erfüllen und zu teuer sind. Wer auf einen goldenen Datenmanagement-Weg hofft, wird enttäuscht. Es gibt keinen "One size fits all"-Ansatz. Was für ein Unternehmen die ideale Lösung darstellt, kann in einem anderen Unternehmen völlig kontraproduktiv sein. Je nach Geschäftsziel ist eine flexible, maßgeschneiderte und mehrstufige Architektur (Tiered Storage) zu implementieren, die unter anderem folgendes beinhalten kann:
- Branchen mit anspruchsvollen Workflows, wie zum Beispiel Überwachungsdaten, Video-Content oder Geoinformationsdaten, verschieben die Daten mittels einer intelligenten Datenmanagement-Software vom primären Speicher auf weitere Speicherebenen.
- Mittlerweile gibt es aktive Archivierungslösungen, NAS-Appliances mit Disk-Storage am Frontend für die aktiven Daten und einer Datenmanagement-Software für die automatisierte Verschiebung von Daten auf Tape, Object Storage oder in die Cloud, wenn die Daten altern.
- Deduplizierungs-Appliances sind immer noch der Kern einer vernünftigen Datensicherung. Für die übrigen unternehmenskritischen Daten kann ein zweiphasiger Sicherungsansatz gewählt werden: Snapshots für schnelle Wiederherstellung mit einer Aufbewahrungszeit von wenigen Tagen und Backups von Wochen und Monaten. Durch den Einsatz der Deduplizierungstechnologie können Kosten gespart und die Replikation in die Cloud für Disaster Recovery-Schutz deutlich erleichtert werden.
- Idealerweise archivieren Unternehmen ältere Daten auf einer robusten Lösung. Mit Kosteneffizienz und Langlebigkeit hat Tape zwei schwergewichtige Argumente auf seiner Seite. Mit modernen LTO-Laufwerken holt Tape auch bei Performance-Aspekten auf.
- Die Cloud bietet sich vor allem für Daten an, die nicht von Tape-basierten gesetzlichen Aufbewahrungsfristen betroffen sind oder für die Erhöhung der Backup Disaster Recovery-Verlässlichkeit.
Seite 2: Das ist bei einer Archivierung wichtig
Seite 3: Entlastung durch Tiering
<< Vorherige Seite | Seite 2 von 3 | Nächste Seite >> |
ln/Stéphane Estevez, Senior Product Marketing Manager EMEA bei Quantum