Fachartikel

Hyperkonvergent und trotzdem einfach

Neue hyperkonvergente Infrastrukturen (HCI), die gerade auf den Markt kommen, automatisieren nicht nur die Bereitstellung von virtuellen Maschinen und deren Management weiter. Vielmehr wollen diese hochintegrierten Systeme die unflexible Skalierung der Vorgängergeneration vergessen machen. Das Lastverhalten bei ihnen über Policies zu regeln, schafft die Voraussetzung dafür, dedizierte Workloads und hochperformante Kernanwendungen abzudecken. Wie das auch bei einem einfachen IT-Betrieb funktioniert, erklärt der Artikel.
Bei modernen HCI-Systemen stehen verschiedene Ausstattungen für Storage und Compute zur Auswahl.
Kreativität und Unternehmertum lassen sich nicht auf Knopfdruck bereitstellen, damit datenbasierte Produkte und Geschäftsmodelle von morgen entstehen. Anders verhält es sich mit der IT. Wer quasi nur noch den Schlüssel umdrehen will, um sich auf Entwicklung und Tests von Anwendungen zu konzentrieren, sollte über eine hyperkonvergente Infrastruktur in seinem Rechenzentrum nachdenken. Automatisierung fängt dann bereits beim Deployment an, wodurch sich die Inbetriebnahme einer solchen Komplettlösung auf unter 45 Minuten verkürzt.

Das Administrieren der aufeinander abgestimmten und softwaregesteuerten Komponenten Server, Storage, Compute, Network und Virtualisierung geschieht über die zentrale Konsole. Routineaufgaben verlangen nur noch wenige Eingriffe. So stellen das Aufsetzen und Provisionieren einer virtuellen Maschine (VM) oder von Backups im Idealfall bloß noch leichte Fingerübungen auf der Tastatur dar. Der Administrationsaufwand bleibt auch bei anderen Standardaufgaben auf das Nötigste beschränkt.

Wann ein konvergentes 5-Gänge-Menü enttäuscht
Zwar verringern auch konvergente Infrastrukturen (CI) den Administrationsaufwand schon erheblich. Server, Speicher, Netzwerk und Virtualisierung funktionieren reibungslos in diesem einem Hardware-zentrierten System. Eine CI-Lösung lässt sich mit einem perfekt abgestimmten 5-Gänge-Menü vergleichen: Ein Unternehmen erhält im ersten Gang das Rack, als Zweites Netzwerk und danach Compute auf Sterne-Niveau serviert. Gang Nummer 4 mit Hypervisor und Speicherbetriebssystem bereiten den Abschluss für die Applikation im Finale vor. Ein Unternehmen kann sich über ein bestens ausbalanciertes System freuen, das der Hersteller genau nach seinen Anforderungen zusammenstellt, damit beispielsweise SAP HANA performant läuft.
Was aber passiert, wenn ein Gast anstelle eines Filets im vierten Gang plötzlich drei oder vier davon möchte? Der Kellner muss erst in der Küche nachfragen. Überträgt man den Filetwunsch auf das Rechenzentrum, würde ein Anwenderunternehmen neben SAP auch noch eine VDI (Virtual Desktop Infrastructure) betreiben wollen. Für diese Kombination ist das CI-System nicht optimal eingestellt. Denn auf einmal treffen völlig neue Anforderungen auf eine physikalisch aufgebaute Plattform, die für einen gänzlich anderen Workload definiert wurde.

Bei einer HCI-Umgebung, die genau auf die Konsolidierung verschiedener Workloads abgestimmt ist, kann ein Unternehmen flexibel reagieren. Eine HCI der neuen Generation befreit von dem Zwang, in festen Blöcken zu wachsen. Denn wer mit der Einstiegsvariante von zwei Chassis mit zwei Compute- und vier Storage-Nodes startet, kann sowohl um einzelne Speicher- als auch Rechenknoten erweitern. Unternehmen bleibt so Überprovisionierung erspart. Zudem sinken ihre Hardware- und Lizenzkosten.

Softwaregesteuerte Standardkomponenten
Auf Flash Storage und Standard Compute Nodes setzen in einer neuen HCI das Speicherbetriebssystem, zum Beispiel Element OS, und ein Hypervisor wie VMware ESXi auf. Komplett virtualisierte Rechen- und Speicherressourcen stehen in einem Pool gemeinschaftlich für die Applikationen zur Verfügung. Weitere Rechenzentrumsfunktionen, wie Deduplizierung und Komprimierung, WAN-Optimierung, Hochverfügbarkeit, Replikation, Datensicherung sowie Backup und Recovery sind standardmäßig integriert oder lassen sich als sich Drittanbieterlösung per API anbinden. Schnittstellen zu AWS, Commvault, Intel, MongoDB Enterprise, Veeam und VMware erweitern die Möglichkeiten für einen effizienten IT-Betrieb.

Letztendlich muss eine HCI-Kombination verschiedene Workloads wie Application Hosting, DB-Hosting oder VDI-Hosting abdecken und Spielraum bieten, auf Veränderungen zu reagieren. Wenn jedoch viele verschiedene Applikationen gleichzeitig auf einem System laufen, bieten HCIs der ersten Generation keine Möglichkeit, einzelnen Applikationen garantierte Ressourcen zuzuweisen. Es stellt sich das sogenannte Noisy-Neighbour-Syndrom ein, das in jeder IT-Infrastruktur auftauchen kann. Die Anwendung, die am lautesten nach Ressourcen schreit, also höhere I/Os und mehr Bandbreite benötigt, bekommt diese auch. Für die anderen bleibt nur der Rest und die Performance geht runter. Der ungestörte Betrieb aller Applikationen auf einer HCI lässt sich damit nicht gewährleisten.

Seite 1: Softwaregesteuerte Standardkomponenten
Seite 2: Doppelte Datenblöcke sichern ab


Seite 1 von 2 Nächste Seite >>
31.01.2018/ln/Johannes Wagmüller, Director Solutions Engineering bei NetApp

Nachrichten

Hochverfügbares All-Flash-NAS [17.02.2020]

QNAP erweitert sein NAS-Portfolio für den Enterprise-Bereich um das All-Flash-Array "ES2486dc" mit 24 Festplatteneinschüben. Mit seiner dualen ActiveActive-Architektur soll das Gerät für nahezu störungsfreie Hochverfügbarkeit sorgen. [mehr]

Hochverfügbares NAS mit Dual-Controller [31.01.2020]

Synology hat mit dem "SA3200D" ein neues NAS auf den Markt gebracht. Hierbei handelt es sich um ein Speichersystem mit einem aktiven und einem passiven Controller für maximale Systemverfügbarkeit. Die Neuvorstellung soll Unternehmen helfen, ihr Datenmanagement zu vereinfachen und zu zentralisieren. [mehr]

Tipps & Tools

Download der Woche: Meld [15.10.2019]

Bei der Systemwartung finden sich immer wieder doppelt vorhandene Dateien und Ordner unter Windows. Diese sorgen nicht nur für Verwirrung, sondern rauben auch Zeit beim Säubern der Struktur auf dem Rechner. Mit dem kostenfreien Tool "Meld" lassen sich durch einen sogenannten "Zwei- und Drei-Wege-Vergleich" sowohl von Files als auch Verzeichnissen die nicht mehr benötigten Daten ermitteln. [mehr]

Backupserver absichern [6.10.2019]

Backupserver spielen in vielen Unternehmen eine wichtige Rolle, wenn es darum geht, geschäftskritische Informationen mit einer Backup-Software vor dem Verlust zu schützen. Dieser Tipp verrät, wie sich der Backupserver mithilfe von Veritas Backup Exec am besten sichern und wiederherstellen lässt. [mehr]

Buchbesprechung

Handbuch Online-Shop

von Alexander Steireif, Rouven Rieker, Markus Bückle

Anzeigen