Fachartikel

Gründe für hyperkonvergenten Sekundärspeicher

IT-Administratoren stehen vor einem Dilemma: Zum einen müssen sie bei einer stetig steigenden Zahl unterschiedlicher Systeme für Datensicherung und Archivierung sorgen. Zum anderen gilt es aber gleichzeitig, die Cloudinitiativen des Managements zu evaluieren. Hyperkonvergente Sekundärspeicher-Systeme (HCSS) bieten hier einen vielversprechenden Lösungsansatz. Der Beitrag zeigt, wie HCSS einen Überbau aus intelligenter und hochskalierbarer Software und standardisierte Speicher- und Compute-Architekturen zu einer kompletten, bereichsübergreifenden Plattform kombiniert.
Sekundärspeichersysteme stehen vor allem vor der Herausforderung, wirksam zu skalieren.
Unternehmen stehen im Bereich von Sekundärspeicher-Systemen vor verschiedenen Problemen und Herausforderungen. Zum einen ist da das Fehlen granularer und beliebiger Skalierbarkeit. Marktübliche Scale-up-Systeme versuchen, so viel Kapazität und Rechenleistung wie möglich in einer einzigen Box unterzubringen, um wettbewerbsfähig zu bleiben. Sobald diese Systeme am Ende ihres Service- und Abschreibungszyklus sind, müssen diese gegen neue und größere Systeme ausgetauscht werden (Forklift-Upgrade), was in der Regel eine langwierige Datenmigration mit sich bringt.

Speichersystem-Hersteller, die aktuell Scale-out-Cluster anbieten, erweitern heute in der Regel lediglich existierende Scale-up-Systeme, was letztendlich in Clustern mit einer limitierten Größe, komplexer Konfiguration und operative Limitierungen resultiert – insbesondere wenn es darum geht, Software-Updates, Erweiterungen und den Tausch defekter Komponenten im laufenden Betrieb durchzuführen. Für derartige Komponenten bedeutet das Hinzufügen von Rechenleistung in der Regel die Migration zu einem komplett neuen Modell innerhalb der verwendeten Produktserie. Die Möglichkeit, Datenspeicherkapazität und Rechenleistung unabhängig voneinander in granularen Schritten zu skalieren, stellt für die meisten der aktuell auf dem Markt erhältlichen Lösungen eine extreme Herausforderung dar.

Problem: Fehlende Visibilität und vernachlässigtes Recovery
Ein weiteres Problem stellt dar, dass Daten häufig intransparent sind (Dark Data). Den Anwendern von Sekundärspeicher-Systemen fehlt in der Regel die Möglichkeit, Visibilität darüber zu erhalten, was auf den Systemen wo gespeichert ist. Höherwertige Backupsysteme bieten eine limitierte Indizierungs- und Such-Funktionalität an, während die meisten Speicher-basierten Archivierungslösungen keine dieser Fähigkeiten von Haus aus mitbringen. Das kann dazu führen, dass Administratoren – ohne es zu wissen – jeweils mehrere, verteilte Kopien der gleichen Daten sichern – und das über Jahre, insbesondere Anwender mit erweiterten Compliance-Anforderungen.

Zusätzliche Speziallösungen für Datenanalyse versuchen, diese Missstände zu adressieren, erhöhen aber gleichzeitig die Komplexität und Kosten im Bereich der Sekundärspeicher. Hinzu kommt, dass viele Datensicherungslösungen das Augenmerk auf das Backup, aber weniger auf das Recovery legen – Administratoren verlieren dann im Fehlerfall wertvolle Zeit, indem sie erst einmal die passenden Datenobjekte finden müssen, bevor sich diese zurücksichern lassen.
Auf der Suche nach mehr Effizienz und Konsolidierung
Mangelhaft ist nicht zuletzt oft die Effizienz von Sekundärspeicher-Systemen Denn sie bestehen in der Regel aus sehr leistungsfähigen Rechner- und Speicherressourcen, von denen weite Bereiche im Normalbetrieb die meiste Zeit nicht abgerufen werden. Hinzu kommt, dass derartige Systeme in vielen Fällen auf der Technologie von Primärspeichersystemen basieren, mit der Folge, dass die verwendeten Betriebssysteme und Funktionen nach wie vor im Kontext der Primärspeicher optimiert sind, die im Widerspruch zu den Anforderungen für Sekundärspeicher stehen: Primärer Performancefaktor für Primärspeicher ist in der Regel die geringstmögliche Latenz, während für Sekundärspeicher der höchstmögliche Durchsatz der bestimmende Leistungsfaktor ist. Die Parametrisierung für diese unterschiedlichen Leistungsfaktoren – ob automatisch oder manuell – weicht stark voneinander ab.

IT-Verantwortliche klagen zudem oft über eine fehlende Konsolidierung. Sekundäre Speicherinfrastruktur (für Backup/DR, File/Object, Test/Dev, Analytics und Multi-Cloud) erfordert in der Regel Komponenten und Lösungen unterschiedlicher Hersteller, aufgeteilt in verschiedene, voneinander separierte Silos. Eine Vielzahl unterschiedlicher Hersteller mit eng begrenztem Lösungshorizont werfen ihre Produkte auf den Markt, was wiederum die Komplexität im physischen oder virtuellen Rechenzentrum steigert und die Kosten signifikant erhöht. Es ist ein offenes Geheimnis, dass es höchste Zeit für eine Konsolidierung in diesem Bereich ist.

Am Anfang steht die Plattform
Die unabdingbare Basis einer erfolgreichen Konsolidierung im Bereich der Sekundärspeicher-Systeme ist eine softwaredefinierte Web-Scale-Architektur, die es ermöglicht, die vorab beschriebenen Herausforderungen zu adressieren und die damit verbundenen Probleme zu lösen. HCSS (Hyperconverged Secondary Storage) etwa kann traditionelle Systeme ersetzen.

Kritischer Erfolgsfaktor für eine solche Architektur ist die richtige Kombination der einzelnen Design-Elemente zu einer zukunftssicheren und in alle Richtungen erweiterbaren Plattform, On-Premises und in der Cloud. Idealerweise verlassen sich IT-Verantwortliche ich beim Erstellen der Design-Prioritäten nicht nur auf den Griff in den Open-Source-Baukasten, sondern entwickelt die Kernkomponenten, die für den zukünftigen Erfolg essentiell sind, selbst – insbesondere dann, wenn die marktüblichen Open-Source-Bausteine kritischen Limitierungen unterliegen (etwa unvorhersehbare Datenbank-Performance aufgrund einer hohen Anzahl asynchroner Jobs, Skalierungsprobleme bei Key-Value-Stores, Performance-Probleme bei Storage Protocol Daemons et cetera). Gerade bei den Komponenten, die das Grundgerüst der Scale-out-Architektur bilden, sollte ein Hersteller nicht auf Dritte angewiesen sein, wenn es um Erweiterungen und Bugfixes geht.

Seite 1: Fehlende Visibilität und vernachlässigtes Recovery
Seite 2: Unterschiedliche Silos zusammenführen


Seite 1 von 2 Nächste Seite >>
13.06.2018/ln/Thomas Boele, Sr. Director, Systems Engineering EMEA bei Cohesity

Nachrichten

Plattformübergreifendes ReFS [29.08.2018]

Paragon Software veröffentlicht mit "ReFS for Windows" ein Werkzeug für den einheitlichen Zugriff auf ReFS-formatierte Datenträger über alle Windows-Varianten hinweg. Die Software, die sich stand-alone als auch integriert in die Infrastruktur betreiben lässt, adressiert Inkompatibiltäten, die bei der ReFS-Verwaltung auftreten, wenn unterschiedliche Releases von Windows darauf zugreifen. [mehr]

14 TByte auf neun Plattern [28.08.2018]

Toshiba bringt mit der 'MG07SCA'-Serie neue 14 und 12 TByte große, Helium-versiegelte HDDs der Enterprise-Klasse mit 12-GBit/s-SAS-Interface auf den Markt. Die Festplatten drehen mit 7.200rpm und basieren auf der Advanced-Format-Sector-Technologie. [mehr]

Tipps & Tools

Praktische Ablage für Webseiten [21.08.2018]

Oft stoßen Webnutzer auf interessante Seiten, die sie gerne später in Ruhe lesen möchten. Ein Weg sind Lesezeichen im Browser. Deutlich flexibler zeigt sich jedoch der Dienst 'Getpocket'. Dieser legt die zu merkenden URLs für eine spätere Verwendung einfach online ab, wobei auch Videos oder Bilder speicherbar sind. [mehr]

Standalone-Agent zur Datensicherung [10.08.2018]

Mit dem neuen 'Veeam Agent for Microsoft Windows' steht ab sofort ein neues Tool bereit, das auf Windows-Funktionalitäten aufsetzt und sichere Backup- und Wiederherstellungsroutinen ermöglicht. Im das Risiko von Datenverlust zu minimieren, lässt sich mit dem Werkzeug auch die Public Cloud als Zielort der Sicherung auswählen. Die Neuvorstellung ist für eine beliebige Anzahl von Endpunkten kostenlos. [mehr]

Buchbesprechung

VoIP Praxisleitfaden

von Jörg Fischer und Christian Sailer

Anzeigen