Meldung

World Backup Day feiert Zehnjähriges

Am heutigen 31. März feiert der World Backup Day sein zehnjähriges Jubiläum. Anlass für Anbieter von Sicherungssoftware und deren Analysten, den Stand beim Thema Backup unter die Lupe zu nehmen. Dass die Experten dabei – je nach eigenem Portfolio – nicht immer auf einer Linie liegen, überrascht nicht.
Zweistellig: Zum zehnten Mal jährt sich der World Backup Day.
Zerto [1] etwa stellt fest, dass die Datenmenge in den letzten zehn Jahren zwar exponentiell gewachsen sei, sich die Backuptechnologie im Unternehmensbereich aber kaum weiterentwickelt habe. Denn traditionelle Sicherungen beruhten auf periodischen Snapshots, was laut Zerto eine massive Belastung für Produktionsumgebungen darstellt und es IT-Teams oft unmöglich macht, die gesetzten Ziele für die Wiederherstellungszeit (RTO) und den Wiederherstellungspunkt (RPO) zu erreichen. Zerto plädiert deshalb für (s)eine kontinuierliche Datensicherung (CDP), die Daten in Intervallen von Sekunden statt von Tagen oder Monaten speichert.

Veritas [2] wiederum warnt davor, dass gerade Schulen und Universitäten im Bereich Datensicherheit hinter der steigenden Komplexität ihrer Systeme zurückblieben. Dadurch seien sie in zunehmendem Maße Ransomware-Angriffen ausgesetzt. Der Anbieter rät dem Bildungssektor daher, ihre Strategie zur Datensicherung zu überprüfen und dabei auch wirklich alle Plattformen einzubeziehen, auf denen ihre Daten und Anwendungen gespeichert sind – sei es die Cloud oder die eigene IT-Infrastruktur.

Auch Pure Storage [3] betont die Rolle von Sicherungen als "Last Line of Defense". Unternehmen sollten sich nicht mehr allein auf Anti-Intrusion-Systeme verlassen. Es sei zwar wichtig, die richtigen Vorkehrungen zu treffen, um einen Angriff zu verhindern, aber Unternehmen müssten ebenso die Wiederherstellung planen, falls es doch zu einem Angriff kommt.

Tanium [4] ist der Meinung, dass Daten nicht völlig sicher sind, wenn sie bei einem Drittanbieter in der Cloud liegen. Ein weiterer Irrglaube sei es, dass ein angemessener Ansatz darin bestehe, einfach alles zu sichern, ohne die Daten im Vorfeld nach ihrer Wichtigkeit zu bewerten und zu sortieren. Pflichtübung sei es zudem, die genutzten Backupsysteme regelmäßig zu testen. Nur so ließe sich sicherstellen, dass alle unternehmenskritischen Daten bei einem echten Notfall vollumfänglich wiederherstellbar sind.

Mimecast [5] hingegen hat mehr Vertrauen in cloudbasierte Systeme, da diese in der Regel über leistungsstärkere IT-Security-Vorkehrungen als das hauseigene Rechenzentrum verfügen würden. Alle Daten seien zudem komplex verschlüsselt und es würden die jeweiligen Zugangsberechtigungen benötigt, um auf diese zugreifen zu können. Darüber hinaus sicherten die meisten Provider die Daten in mehreren Rechenzentren, in unterschiedlichen Regionen. Sollte ein Rechenzentrum versagen, ist der Zugriff auf die archivierten Daten laut Mimecast also weiterhin lückenlos möglich.

Rubrik [6] schließlich rät Unternehmen, sich nicht vor veralteten Backupsystemen ausbremsen zu lassen. So würden veraltete Lösungen wie Bandspeicher einfach nicht mehr ausreichen, wenn es um Massenwiederherstellungen und eine moderne Umgebung geht. Eine solche sei im Idealfall stark auf die entsprechenden Workloads ausgelegt, die sich zunehmend weg vom Rechenzentrum und hin zur Cloud oder dem entstehenden Edge bewegen. Legacy-Backupsysteme könnten hier nicht mehr mithalten.

Wer sich einen praxisnahen Blick auf Backup & Recovery ohne Herstellerbrille wünscht, sollte die April-Ausgabe [7] des IT-Administrator zur Hand nehmen, die sich dieses Thema zum Schwerpunkt setzt. Auch dort gibt es übrigens ein Jubiläum zu feiern, das deutlich jenseits der zehn Jahre liegt: Das April-Heft ist die 200. Ausgabe des IT-Administrator.
31.03.2021/ln

Tipps & Tools

Wildwuchs bei Datenbanken begrenzen [18.03.2021]

Datenintensive Trends wie Big Data oder Industrial IoT bewirken eine heterogene Datenbankinfrastruktur. Dadurch gestaltet sich die Administration komplex: Für skalierende Datenanalysen gibt es NoSQL, das IIoT fordert neben relationalen Datenbanken zusätzlich eine Time-Series-Datenbank, einige Anwendungen haben proprietäre Formate. Oft verteilen sich die Systeme auf unterschiedliche Orte, etwa lokal im Betrieb, das eigene Rechenzentrum oder verschiedene Clouds. Unser Fachartikel skizziert, wie eine Konsolidierung möglich ist. [mehr]

Consumer vs. Enterprise-SSDs [14.11.2020]

Solid-State-Drives sind ja in zwei Varianten erhältlich: Client-SSDs für den Consumer-Bereich und Enterprise-SSDs für Server. Da der Preisunterschied doch recht groß ist, fragt sich so mancher Admin, ob er in weniger kritischen Speichersystemen auch die günstige Variante einsetzen kann. Deutliche Unterschiede sprechen jedoch dagegen. [mehr]

Fachartikel

Wildwuchs bei Datenbanken begrenzen [17.03.2021]

Datenintensive Trends wie Big Data oder Industrial IoT bewirken eine heterogene Datenbankinfrastruktur. Dadurch gestaltet sich die Administration komplex: Für skalierende Datenanalysen gibt es NoSQL, das IIoT fordert neben relationalen Datenbanken zusätzlich eine Time-Series-Datenbank, einige Anwendungen haben proprietäre Formate – ein Datenbankzoo, der sich in vielen Unternehmen findet. Oft verteilen sich die Systeme auf unterschiedliche Orte, etwa lokal im Betrieb, das eigene Rechenzentrum oder verschiedene Clouds. Der Artikel skizziert, wie eine Konsolidierung möglich ist. [mehr]

Buchbesprechung

Computernetze und Internet of Things

von Patrick-Benjamin Bök, Andreas Noack, Marcel Müller

Anzeigen