Fachartikel

So erkennen Sie schlechte Backup-Strategien

Zur einer effizienten Datensicherung gehören adäquate Backup-Strategien. Dieser Beitrag geht allerdings einmal nicht von Best Practices aus, sondern zeigt, wie Fehler beim Thema Backup für Unternehmen zu erkennen sind, wie der eigene Backup-Ansatz zu bewerten ist und wie sich typische Fehler bei der Datensicherung letztendlich vermeiden lassen. Denn veraltete und unzureichende Methoden generieren unnötige Kosten, bieten aber nicht die nötigen Ergebnisse – es wird Zeit, damit aufzuräumen.
Eine wirtschaftliche Backup-Strategie wird schnell durch veraltete Technologien oder Denkfehler zunichte gemacht.
Daten sind das Rückgrat vieler Unternehmen und stellen einen unwiederbringlichen Wert dar –  wertvolle Entwicklungsdaten, Kundendaten oder Daten, die bestimmten gesetzlichen Aufbewahrungsfristen unterliegen. Damit diese nicht verloren gehen, ist eine solide Backup-Strategie ein Muss für alle Unternehmen. Beim Aufbau und der Umsetzung dieser Backup-Strategie begehen zahlreiche Unternehmen aber Fehler und sie können wichtige Daten nicht mehr auffinden, während die gespeicherte Datenmenge und die damit verbundenen Kosten für die Speicherung unaufhörlich steigen.

Dinosaurier VTL
Woran also lassen sich schlechte Backup Strategien erkennen und wie können Unternehmen sie beseitigen? Veraltete oder unzureichende Backup-Strategien sind häufig ein großes Problem im Unternehmen. Egal ob in KMUs oder größeren Unternehmen, Virtual Tape Libraries (VTL) sind ein häufig auftretendes Beispiel für derartige, veraltete Varianten.

Ungefähr 15 Jahre lang zählten VTLs zu den leistungsfähigsten Backup-Lösungen. Mit ihnen waren Probleme wie die langsamen Restore-Zeiten gelöst, die durch das "Many-to-One"-Prinzip zwischen Servern und Zielspeicherort verursacht wurden. VTLs erlaubten den Systemadministratoren, Diskettenlaufwerke  oder Festplatten wie ein Bandlaufwerk zu behandeln, wodurch VTLs auch kompatibel mit alten Systemen zur Datenspeicherung waren.

Mittlerweile entsprechen VLTs  allerdings nicht mehr den Anforderungen moderner Datenmanagementsysteme. Es gibt zwar theoretisch noch technische Argumente, die für VTLs sprechen – speziell bei Backup-Pfaden, die über Glasfaser laufen oder bei alten Mid-Range-Systemen, die es noch immer in einigen Rechenzentren gibt. Allerdings werden diese Vorteile immer weniger, da alte Mid-Range-Server zunehmend von modernen, offenen Systemplattformen ersetzt werden.

Der größte Nachteil von VTLs sind die Kosten. Derartige Lösungen sind häufig eine Strategie, den Kunden langfristig an sich zu binden, weshalb letztendlich hauptsächlich der Verkäufer profitiert. Es hilft nur sehr bedingt die Gesamtbetriebskosten zu senken, wenn Daten anstatt auf Band auf VTL gespeichert werden. Schließlich sind aufgrund der Vielzahl an unterschiedlichen Datentypen, die ein Unternehmen verarbeiten muss, die vom Marketing der Anbieter versprochenen Deduplizierungsraten im echten Tagesgeschäft nur schwer realisierbar. Das führt letztlich dazu, dass schon bald zusätzlicher VTL-Storage angeschafft werden muss, weshalb Unternehmen auch schnell enttäuscht sind, wenn die Lösung nicht die versprochenen Einsparungen ermöglicht.

Schlechte Backup-Strategie hat Folgen
Heutzutage werden Daten in exponentiell ansteigender Menge produziert. Deshalb müssen Unternehmen nicht nur sicherstellen, dass sie effektive Richtlinien entwickeln und umsetzen, um ihre Daten zu schützen. Dazu ist es auch nötig, jegliche Art von Daten schnell und einfach wiederherstellen zu können.  Wenn die Backup-Strategie eines Unternehmens dies nicht erlaubt, ist sie nicht effizient genug und muss überarbeitet werden. Nur so können Unternehmen sicherstellen,  dass ihre Informationen zu jeder Zeit auffindbar und zugänglich sind, damit sie internen und externen Anforderungen entsprechen können und keine finanziellen und rechtlichen Konsequenzen fürchten müssen.

Trotzdem fehlen dazu manchmal Zeit und Ressourcen und Unternehmen entscheiden sich für eine  kostengünstige Backup-Strategie, vernachlässigen dabei aber die Qualität. Managed Service Providers (MSPs) können Unternehmen dabei helfen, Lösungen gegen schlechte Backup-Strategien zu finden, da sie Anbieter und Unternehmen zusammenzubringen. So liefern sie ihren Kunden echten Mehrwert, da sie eine maßgeschneiderte  Infrastruktur zum Datenmanagement bereitstellen, die wiederum hilft, Kosten zu senken, die Effizienz zu steigern und den administrativen Aufwand zu senken.

    Seite 1: Schlechte Backup-Strategie hat Folgen
    Seite 2: So erkennen Sie schlechte Backup Strategien


Seite 1 von 2 Nächste Seite >>
2.09.2015/ln/Mark Bentkower, Director of Enterprise Solutions Asia Pacific bei CommVault

Nachrichten

18-TByte-Festplatten dank Mikrowellen-Technologie [16.09.2021]

Toshiba Electronics Europe hat dem Portfolio seiner N300-NAS- und X300-Performance-Festplatten neue 18-TByte-Modelle hinzugefügt. Die beiden neuen Laufwerke arbeiten auf Basis der FC-MAMR-Technologie, die der Hersteller Anfang dieses Jahres angekündigt hat. [mehr]

Datenlieferservice [18.08.2021]

Mit dem neuen HiDrive Share bietet STRATO jetzt einen Dienst, der erlaubt, große Dateien kostenlos zu teilen. Für das Hoch- und Herunterladen von Dateien ist dabei keine E-Mail-Adresse nötig und der Transfer erfolgt verschlüsselt. Anschließend stehen die Files dann bis zu einer Woche über einen sicher generierten Link zur Verfügung. Der kostenlose Dienst stellt pro Upload zwei GByte Speicher für beliebig viele Dateien zur Verfügung. [mehr]

Tipps & Tools

Download der Woche: BleachBit [15.09.2021]

Im Haushalt ist Bleach durch seinen scharfen Geruch gefürchtet, am Rechner kann eine gründliche Reinigung von überlaufenden Festplatten und anderen Speicher-Ressourcen allerdings auch nicht schaden. Mit dem kostenfreien Tool "BleachBit" untersuchen Sie Ihr Windows- oder Linux-System nach nicht mehr benötigten Dateien und löschen diese anschließend sicher. Neben mehr Speicherplatz bringt das in der Regel auch eine Verbesserung der Performance. [mehr]

MariaDB Community Server 10.6 erweitert JSON- und Oracle-Kompatibilität [2.07.2021]

MariaDB hat seine relationale Open-Source-Datenbank einem Update unterzogen. Die neue Version 10.6 erweitert die JSON-Tabellenfunktion ebenso wie die Kompatibilität zur proprietären Oracle-Programmiersprache PL/SQL und wartet mit einer neuen Data Definition Language zur Absicherung von Datenbankausfällen auf. [mehr]

Buchbesprechung

Windows 10 Power-Tipps

von Günter Born

Anzeigen