Fachartikel

Hyperkonvergent und trotzdem einfach

Neue hyperkonvergente Infrastrukturen (HCI), die gerade auf den Markt kommen, automatisieren nicht nur die Bereitstellung von virtuellen Maschinen und deren Management weiter. Vielmehr wollen diese hochintegrierten Systeme die unflexible Skalierung der Vorgängergeneration vergessen machen. Das Lastverhalten bei ihnen über Policies zu regeln, schafft die Voraussetzung dafür, dedizierte Workloads und hochperformante Kernanwendungen abzudecken. Wie das auch bei einem einfachen IT-Betrieb funktioniert, erklärt der Artikel.
Bei modernen HCI-Systemen stehen verschiedene Ausstattungen für Storage und Compute zur Auswahl.
Kreativität und Unternehmertum lassen sich nicht auf Knopfdruck bereitstellen, damit datenbasierte Produkte und Geschäftsmodelle von morgen entstehen. Anders verhält es sich mit der IT. Wer quasi nur noch den Schlüssel umdrehen will, um sich auf Entwicklung und Tests von Anwendungen zu konzentrieren, sollte über eine hyperkonvergente Infrastruktur in seinem Rechenzentrum nachdenken. Automatisierung fängt dann bereits beim Deployment an, wodurch sich die Inbetriebnahme einer solchen Komplettlösung auf unter 45 Minuten verkürzt.

Das Administrieren der aufeinander abgestimmten und softwaregesteuerten Komponenten Server, Storage, Compute, Network und Virtualisierung geschieht über die zentrale Konsole. Routineaufgaben verlangen nur noch wenige Eingriffe. So stellen das Aufsetzen und Provisionieren einer virtuellen Maschine (VM) oder von Backups im Idealfall bloß noch leichte Fingerübungen auf der Tastatur dar. Der Administrationsaufwand bleibt auch bei anderen Standardaufgaben auf das Nötigste beschränkt.

Wann ein konvergentes 5-Gänge-Menü enttäuscht
Zwar verringern auch konvergente Infrastrukturen (CI) den Administrationsaufwand schon erheblich. Server, Speicher, Netzwerk und Virtualisierung funktionieren reibungslos in diesem einem Hardware-zentrierten System. Eine CI-Lösung lässt sich mit einem perfekt abgestimmten 5-Gänge-Menü vergleichen: Ein Unternehmen erhält im ersten Gang das Rack, als Zweites Netzwerk und danach Compute auf Sterne-Niveau serviert. Gang Nummer 4 mit Hypervisor und Speicherbetriebssystem bereiten den Abschluss für die Applikation im Finale vor. Ein Unternehmen kann sich über ein bestens ausbalanciertes System freuen, das der Hersteller genau nach seinen Anforderungen zusammenstellt, damit beispielsweise SAP HANA performant läuft.
Was aber passiert, wenn ein Gast anstelle eines Filets im vierten Gang plötzlich drei oder vier davon möchte? Der Kellner muss erst in der Küche nachfragen. Überträgt man den Filetwunsch auf das Rechenzentrum, würde ein Anwenderunternehmen neben SAP auch noch eine VDI (Virtual Desktop Infrastructure) betreiben wollen. Für diese Kombination ist das CI-System nicht optimal eingestellt. Denn auf einmal treffen völlig neue Anforderungen auf eine physikalisch aufgebaute Plattform, die für einen gänzlich anderen Workload definiert wurde.

Bei einer HCI-Umgebung, die genau auf die Konsolidierung verschiedener Workloads abgestimmt ist, kann ein Unternehmen flexibel reagieren. Eine HCI der neuen Generation befreit von dem Zwang, in festen Blöcken zu wachsen. Denn wer mit der Einstiegsvariante von zwei Chassis mit zwei Compute- und vier Storage-Nodes startet, kann sowohl um einzelne Speicher- als auch Rechenknoten erweitern. Unternehmen bleibt so Überprovisionierung erspart. Zudem sinken ihre Hardware- und Lizenzkosten.

Softwaregesteuerte Standardkomponenten
Auf Flash Storage und Standard Compute Nodes setzen in einer neuen HCI das Speicherbetriebssystem, zum Beispiel Element OS, und ein Hypervisor wie VMware ESXi auf. Komplett virtualisierte Rechen- und Speicherressourcen stehen in einem Pool gemeinschaftlich für die Applikationen zur Verfügung. Weitere Rechenzentrumsfunktionen, wie Deduplizierung und Komprimierung, WAN-Optimierung, Hochverfügbarkeit, Replikation, Datensicherung sowie Backup und Recovery sind standardmäßig integriert oder lassen sich als sich Drittanbieterlösung per API anbinden. Schnittstellen zu AWS, Commvault, Intel, MongoDB Enterprise, Veeam und VMware erweitern die Möglichkeiten für einen effizienten IT-Betrieb.

Letztendlich muss eine HCI-Kombination verschiedene Workloads wie Application Hosting, DB-Hosting oder VDI-Hosting abdecken und Spielraum bieten, auf Veränderungen zu reagieren. Wenn jedoch viele verschiedene Applikationen gleichzeitig auf einem System laufen, bieten HCIs der ersten Generation keine Möglichkeit, einzelnen Applikationen garantierte Ressourcen zuzuweisen. Es stellt sich das sogenannte Noisy-Neighbour-Syndrom ein, das in jeder IT-Infrastruktur auftauchen kann. Die Anwendung, die am lautesten nach Ressourcen schreit, also höhere I/Os und mehr Bandbreite benötigt, bekommt diese auch. Für die anderen bleibt nur der Rest und die Performance geht runter. Der ungestörte Betrieb aller Applikationen auf einer HCI lässt sich damit nicht gewährleisten.

Seite 1: Softwaregesteuerte Standardkomponenten
Seite 2: Doppelte Datenblöcke sichern ab


Seite 1 von 2 Nächste Seite >>
31.01.2018/ln/Johannes Wagmüller, Director Solutions Engineering bei NetApp

Nachrichten

Wachsende Workloads, vereinfachte Verwaltung [19.02.2018]

Mit dem 'VxBlock 1000' baut Dell EMC sein Portfolio an konvergenten Infrastruktursystemen weiter aus. Die Neuvorstellung unterstützt Workloads aller Art und soll mir einer überarbeiteten Architektur den Platzbedarf im Rechenzentrum um bis zu 60 Prozent reduzieren. [mehr]

Schneller Restore aus der Cloud [8.02.2018]

Mit 'UDP Cloud Direct' bringt Arcserve eine neue Disaster-Recovery-as-a-Service- und Backup-as-a-Service-Lösung auf den Markt. Die Neuvorstellung vereint das Netzwerkmanagement und die Replikation des Herstellers mit einer neuen Cloud-Technologie. [mehr]

Tipps & Tools

Kontrolle über Speicherplatz behalten [23.02.2018]

Bei der Verwaltung der Festplattenressourcen auf dem PC kann das kostenfreie Tool 'MeinPlatz' weiter helfen. Die Software durchleuchtet sowohl die fest verbauten Datenträger als auch externe Speichermedien und listet Ihnen den belegten Speicherplatz von Ordnern und Dateien auf. Neben der Größe, Datei- und Ordneranzahl stellt das Werkzeug die prozentuelle Belastung der Festplatte relativ zur Gesamtgröße grafisch dar. [mehr]

AWS-Kosten treffsicher kalkulieren [16.01.2018]

Wenn es nach den entsprechenden Anbietern geht, löst die Cloud alle IT-Probleme, ist flexibler als On-Premises-Installationen und obendrein natürlich günstiger. Wenn aber jede Minute und jedes GByte einzeln berechnet und ein Dutzend verschiedener Dienstleistungen in Anspruch genommen wird, geraten die Ausgaben schnell außer Kontrolle. Zumindest für AWS gibt es mit dem 'Simple Monthly Calculator' einen Kostenrechner, der den individuellen Bedarf skizziert und für mehr Planungssicherheit sorgt. [mehr]

Buchbesprechung

Software Defined Networking

von Konstantin Agouros

Anzeigen