Fachartikel

Gründe für hyperkonvergenten Sekundärspeicher

IT-Administratoren stehen vor einem Dilemma: Zum einen müssen sie bei einer stetig steigenden Zahl unterschiedlicher Systeme für Datensicherung und Archivierung sorgen. Zum anderen gilt es aber gleichzeitig, die Cloudinitiativen des Managements zu evaluieren. Hyperkonvergente Sekundärspeicher-Systeme (HCSS) bieten hier einen vielversprechenden Lösungsansatz. Der Beitrag zeigt, wie HCSS einen Überbau aus intelligenter und hochskalierbarer Software und standardisierte Speicher- und Compute-Architekturen zu einer kompletten, bereichsübergreifenden Plattform kombiniert.
Sekundärspeichersysteme stehen vor allem vor der Herausforderung, wirksam zu skalieren.
Unternehmen stehen im Bereich von Sekundärspeicher-Systemen vor verschiedenen Problemen und Herausforderungen. Zum einen ist da das Fehlen granularer und beliebiger Skalierbarkeit. Marktübliche Scale-up-Systeme versuchen, so viel Kapazität und Rechenleistung wie möglich in einer einzigen Box unterzubringen, um wettbewerbsfähig zu bleiben. Sobald diese Systeme am Ende ihres Service- und Abschreibungszyklus sind, müssen diese gegen neue und größere Systeme ausgetauscht werden (Forklift-Upgrade), was in der Regel eine langwierige Datenmigration mit sich bringt.

Speichersystem-Hersteller, die aktuell Scale-out-Cluster anbieten, erweitern heute in der Regel lediglich existierende Scale-up-Systeme, was letztendlich in Clustern mit einer limitierten Größe, komplexer Konfiguration und operative Limitierungen resultiert – insbesondere wenn es darum geht, Software-Updates, Erweiterungen und den Tausch defekter Komponenten im laufenden Betrieb durchzuführen. Für derartige Komponenten bedeutet das Hinzufügen von Rechenleistung in der Regel die Migration zu einem komplett neuen Modell innerhalb der verwendeten Produktserie. Die Möglichkeit, Datenspeicherkapazität und Rechenleistung unabhängig voneinander in granularen Schritten zu skalieren, stellt für die meisten der aktuell auf dem Markt erhältlichen Lösungen eine extreme Herausforderung dar.

Problem: Fehlende Visibilität und vernachlässigtes Recovery
Ein weiteres Problem stellt dar, dass Daten häufig intransparent sind (Dark Data). Den Anwendern von Sekundärspeicher-Systemen fehlt in der Regel die Möglichkeit, Visibilität darüber zu erhalten, was auf den Systemen wo gespeichert ist. Höherwertige Backupsysteme bieten eine limitierte Indizierungs- und Such-Funktionalität an, während die meisten Speicher-basierten Archivierungslösungen keine dieser Fähigkeiten von Haus aus mitbringen. Das kann dazu führen, dass Administratoren – ohne es zu wissen – jeweils mehrere, verteilte Kopien der gleichen Daten sichern – und das über Jahre, insbesondere Anwender mit erweiterten Compliance-Anforderungen.

Zusätzliche Speziallösungen für Datenanalyse versuchen, diese Missstände zu adressieren, erhöhen aber gleichzeitig die Komplexität und Kosten im Bereich der Sekundärspeicher. Hinzu kommt, dass viele Datensicherungslösungen das Augenmerk auf das Backup, aber weniger auf das Recovery legen – Administratoren verlieren dann im Fehlerfall wertvolle Zeit, indem sie erst einmal die passenden Datenobjekte finden müssen, bevor sich diese zurücksichern lassen.
Auf der Suche nach mehr Effizienz und Konsolidierung
Mangelhaft ist nicht zuletzt oft die Effizienz von Sekundärspeicher-Systemen Denn sie bestehen in der Regel aus sehr leistungsfähigen Rechner- und Speicherressourcen, von denen weite Bereiche im Normalbetrieb die meiste Zeit nicht abgerufen werden. Hinzu kommt, dass derartige Systeme in vielen Fällen auf der Technologie von Primärspeichersystemen basieren, mit der Folge, dass die verwendeten Betriebssysteme und Funktionen nach wie vor im Kontext der Primärspeicher optimiert sind, die im Widerspruch zu den Anforderungen für Sekundärspeicher stehen: Primärer Performancefaktor für Primärspeicher ist in der Regel die geringstmögliche Latenz, während für Sekundärspeicher der höchstmögliche Durchsatz der bestimmende Leistungsfaktor ist. Die Parametrisierung für diese unterschiedlichen Leistungsfaktoren – ob automatisch oder manuell – weicht stark voneinander ab.

IT-Verantwortliche klagen zudem oft über eine fehlende Konsolidierung. Sekundäre Speicherinfrastruktur (für Backup/DR, File/Object, Test/Dev, Analytics und Multi-Cloud) erfordert in der Regel Komponenten und Lösungen unterschiedlicher Hersteller, aufgeteilt in verschiedene, voneinander separierte Silos. Eine Vielzahl unterschiedlicher Hersteller mit eng begrenztem Lösungshorizont werfen ihre Produkte auf den Markt, was wiederum die Komplexität im physischen oder virtuellen Rechenzentrum steigert und die Kosten signifikant erhöht. Es ist ein offenes Geheimnis, dass es höchste Zeit für eine Konsolidierung in diesem Bereich ist.

Am Anfang steht die Plattform
Die unabdingbare Basis einer erfolgreichen Konsolidierung im Bereich der Sekundärspeicher-Systeme ist eine softwaredefinierte Web-Scale-Architektur, die es ermöglicht, die vorab beschriebenen Herausforderungen zu adressieren und die damit verbundenen Probleme zu lösen. HCSS (Hyperconverged Secondary Storage) etwa kann traditionelle Systeme ersetzen.

Kritischer Erfolgsfaktor für eine solche Architektur ist die richtige Kombination der einzelnen Design-Elemente zu einer zukunftssicheren und in alle Richtungen erweiterbaren Plattform, On-Premises und in der Cloud. Idealerweise verlassen sich IT-Verantwortliche ich beim Erstellen der Design-Prioritäten nicht nur auf den Griff in den Open-Source-Baukasten, sondern entwickelt die Kernkomponenten, die für den zukünftigen Erfolg essentiell sind, selbst – insbesondere dann, wenn die marktüblichen Open-Source-Bausteine kritischen Limitierungen unterliegen (etwa unvorhersehbare Datenbank-Performance aufgrund einer hohen Anzahl asynchroner Jobs, Skalierungsprobleme bei Key-Value-Stores, Performance-Probleme bei Storage Protocol Daemons et cetera). Gerade bei den Komponenten, die das Grundgerüst der Scale-out-Architektur bilden, sollte ein Hersteller nicht auf Dritte angewiesen sein, wenn es um Erweiterungen und Bugfixes geht.

Seite 1: Fehlende Visibilität und vernachlässigtes Recovery
Seite 2: Unterschiedliche Silos zusammenführen


Seite 1 von 2 Nächste Seite >>
13.06.2018/ln/Thomas Boele, Sr. Director, Systems Engineering EMEA bei Cohesity

Nachrichten

8-TByte-SSD in schlankem Gewand [21.06.2018]

Mit dem Modell 'NF1 SSD' stellt Samsung einen neuen NVMe-Flash-Speicher mit hoher Dichte vor. Insgesamt 8 TByte finden Platz auf dem Speicherriegel, der unter dem Formfaktor 'NGSFF' firmiert und damit nur geringfügig größer ausfällt als M.2-SSDs. [mehr]

Wasserkühlung im Namen des Meeresgottes [21.06.2018]

Lenovo hat unter dem Namen 'Neptune' seinen Ansatz zur ganzheitliche Kühlung von Rechenzentren auf Basis von Flüssigkeit vorgestellt. Der Hersteller setzte auf einen 'Dreizack der Kühltechnologien', der den Rechenzentrumsbetrieb um bis zu 50 Prozent effizienter machen soll. [mehr]

Tipps & Tools

Ruckeln im Legacy-Grafikmodus von XenDesktop beheben [24.06.2018]

Nach einem Update des Acrobat Reader DC auf die Version 17.012.20098 kann es in einer XenDesktop-Session (v7.15) unter Verwendung des Legacy-Grafikmodus zu stockenden Mausbewegungen kommen. Das Problem lässt sich jedoch relativ einfach auf mehrere Arten lösen. [mehr]

Lounge-Atmosphäre mit Glitterlava [23.06.2018]

Wenn Sie für ein Infrastruktur-Update mal wieder länger am Arbeitsplatz verweilen müssen, kann eine gemütliche Lounge-Atmosphäre nicht schaden. Mit der schicken Miniatur-USB-Glitterlampe sorgen Sie nicht nur für Entspannung am Notebook, sondern erhalten auch einen echten Hingucker am Schreibtisch. Von Vorteil ist, dass das Computer-Gadget keine lange Aufwärmzeit benötigt wie der große Bruder mit Wachselementen im Glas. [mehr]

Buchbesprechung

Anzeigen