Fachartikel

Was tun bei Datenverlust im Rechenzentrum?

Neue Technologien drängen vermehrt in betriebseigene Rechenzentren oder die von externen Cloud-Anbietern. Waren es in den letzten Jahren RAID-Arrays oder die Virtualisierung, stoßen jetzt deutlich komplexere Ansätze hinzu: Software-definierter, konvergenter oder hyperkonvergenter Storage. Welche Auswirkungen diese neuen Speicherkonzepte auf die Datenrettung haben und wie sich Firmen bereits im Vorfeld vor Datenverlust schützen können, beleuchtet unser Artikel.
Bei modernen Storage-Systemen ist es bei der Datenrettung mit der rein physischen Wiederherstellung meist nicht getan.
Ob unternehmenseigen oder bei einem externen Cloud-Anbieter – wer in den letzten Monaten die Wirtschaftsnachrichten verfolgt hat, konnte den Eindruck haben, dass nahezu überall neue Rechenzentren entstehen. Allein in der deutschen Cloud-Hauptstadt Frankfurt sollen in den nächsten Jahren weitere 500.000 Quadratmeter an Server-Fläche entstehen. Derzeit bauen große RZ-Anbieter an einem 27-Megawatt-RZ mit 32.000qm Serverfläche oder gleich ihr siebtes Rechenzentrum in der Region Frankfurt in Folge. Und der Trend zu immer mehr Rechenzentren geht weiter: So soll sich die Datenmenge allein in Deutschland bis 2020 verfünffachen, weltweit gar verfünfzigfachen.

Ein Grund für den wachsenden Bedarf nach externer Rechenzentren-Power sind nach einer Studie der Bitkom besonders kleine und mittlere Unternehmen in Deutschland, die anscheinend endgültig ihre Skepsis gegenüber der Nutzung von externen Cloud-Angeboten abgelegt haben. Laut der Studie nutzte im vergangenen Jahr erstmals eine Mehrheit der Unternehmen (54 Prozent) Cloud-Angebote. Viele Unternehmen lassen jetzt ausgewählte Applikationen über das Internet laufen und lagern IT-Dienste in die Cloud aus.
Komplexität fördert Datenverlust
Aber egal ob firmeneigenes oder für die Cloud-Nutzung angelegtes Rechenzentrum, die verantwortlichen Administratoren haben täglich mit vielen Herausforderungen zu kämpfen. Durch die stetig steigende Komplexität der eingesetzten Technologien wachsen dabei in den Rechenzentren auch die Gefahren eines Datenverlusts. Und dabei sind bei Cloud-Rechenzentren eben nicht nur kleine Anbieter betroffen, sondern auch große Namen wie etwa Google, der im letzten Jahr allein durch einen Blitzeinschlag in einem belgischen RZ große Mengen an Kundendaten für immer verlor. Ein weiteres Beispiel für einen Datenverlust lieferte auch die Universität Hildesheim, die bereits 2013 einen Datenverlust von zehn Prozent des gesamten universitären Webspaces zu vermelden hatte. Ein mechanischer Festplatten-Ausfall und nicht-lesbare Backups führten hier zu einem Totalverlust.

Neben diesen klassischen Datenverlust-Szenarien durch technische Probleme werden aber immer häufiger die eingesetzten Technologien selbst zum Problem. In den vergangenen Jahren kamen neben den fast schon als selbstverständlich anzusehenden Technologien wie Virtualisierung und RAID-Systeme eben noch komplexere Ansätze zum Einsatz wie beispielsweise Software-defined Storage (SDS) oder hyperkonvergenter Storage. Mit dem Einsatz dieser neuen Konzepte sehen gerade Administratoren und IT-Manager von Rechenzentren große Möglichkeiten, die Kosten ihrer Infrastruktur zu senken, die Speicherkapazität und die Effizienz zu steigern. Schließlich bieten diese Technologien einen entscheidenden Vorteil: die Reduzierung des Platzbedarfs im Rechenzentrum bei gleichzeitiger Steigerung der Leistung.

Software-defined Storage im Griff
SDS bietet eine effizientere Nutzung der vorhandenen Ressourcen und erschließt neuen Speicherplatz ohne Hardware hinzuzufügen. Hyperkonvergenter Storage treibt den SDS-Ansatz nochmals um eine Stufe höher, indem es Computer, Storage, Netzwerk und Verwaltungsfunktionen in einer Appliance zusammenführt, die einfach bereitzustellen und zu skalieren ist und dadurch signifikant die benötigte Hardware in einem Datenzentrum reduziert. Auch erwähnenswert: hyperkonvergente Appliances werden voraussichtlich mit dem Einsatz von Flash-Arrays auch immer kleiner und effizienter.

Kehrseite der Entwicklung: Die Komplexität der Systeme lassen selbst vermeintlich kleine Anwenderfehler oder Ursachen zum Datenverlust-Super-Gau werden. Schnell mal im laufenden Betrieb den Inhalt einer Festplatte fehlerhaft verschoben, vermeintlich freien Speicherplatz durch einen Tastendruck "freigegeben" und konfiguriert oder schlicht die Wiederherstellungsfunktion falsch ausgeführt – die Konsequenzen können verheerend sein, das betroffene System zum kompletten Stillstand führen und Daten ins digitale Nirwana verschwinden lassen.

    Seite 1: Komplexität fördert Datenverlust
    Seite 2: Datenrettung für SDS und hyperkonvergente Systeme


Seite 1 von 2 Nächste Seite >>
13.07.2016/ln/Michael Nuncic, Marketing Communications/Program Manager bei Kroll Ontrack

Nachrichten

Hybrides NAS [6.03.2020]

QNAP bringt mit dem "TS 1886XU-RP" ein neues NAS der Unternehmensklasse auf den Markt. Die Appliance dient als hybrides Speichergerät und bietet Platz für zwölf Festplatteneinschübe und sechs dedizierte SSDs. Das 2U-Rackmount-NAS ist mit einem Intel-Xeon-Prozessor der D-1600 Serie sowie DDR4-Error-Correcting-Code-Speicher ausgestattet. [mehr]

All-Flash-Speicher im Abo [6.03.2020]

Im Rahmen seines Subskriptionsmodells "Evergreen" stellt Pure Storage eine neue Version der Betriebsumgebung "Purity" für sein All-Flash-Produkt "FlashArray" vor. Laut Hersteller bietet Purity 5.3 unter anderem mehr Multi-Cloud-Unterstützung, eine verstärkte Sicherheitsfunktionalität und eine Verbesserungen der Quality-of-Service. [mehr]

Tipps & Tools

Das bringt 2020 für Flash-Speicher [12.03.2020]

In diesem Jahr wird Flash für noch mehr Workloads eingesetzt, die bisher auf HDD- oder Hybridsystemen betrieben wurden. Dazu gehören Tier-2-Anwendungsfälle, Big-Data-Analytik und die schnelle Wiederherstellung von immer größer werdenden geschäftskritischen Systemen und Datenbanken. Flash gewinnt außerdem in Hybrid-Cloud-Szenarien und als Scale-out-Speicherlösung mit Datei- und Objektspeicherung an Bedeutung. Der Fachartikel gibt einen Ausblick darauf, mit welchen Neuerungen im Bereich Flash 2020 zu rechnen ist. [mehr]

Download der Woche: Meld [15.10.2019]

Bei der Systemwartung finden sich immer wieder doppelt vorhandene Dateien und Ordner unter Windows. Diese sorgen nicht nur für Verwirrung, sondern rauben auch Zeit beim Säubern der Struktur auf dem Rechner. Mit dem kostenfreien Tool "Meld" lassen sich durch einen sogenannten "Zwei- und Drei-Wege-Vergleich" sowohl von Files als auch Verzeichnissen die nicht mehr benötigten Daten ermitteln. [mehr]

Buchbesprechung

Technik der IP-Netze

von Anatol Badach und Erwin Hoffmann

Anzeigen