Hyperkonvergent und trotzdem einfach

Lesezeit
2 Minuten
Bis jetzt gelesen

Hyperkonvergent und trotzdem einfach

31.01.2018 - 14:00
Veröffentlicht in:
Neue hyperkonvergente Infrastrukturen (HCI), die gerade auf den Markt kommen, automatisieren nicht nur die Bereitstellung von virtuellen Maschinen und deren Management weiter. Vielmehr wollen diese hochintegrierten Systeme die unflexible Skalierung der Vorgängergeneration vergessen machen. Das Lastverhalten bei ihnen über Policies zu regeln, schafft die Voraussetzung dafür, dedizierte Workloads und hochperformante Kernanwendungen abzudecken. Wie das auch bei einem einfachen IT-Betrieb funktioniert, erklärt der Artikel.
Kreativität und Unternehmertum lassen sich nicht auf Knopfdruck bereitstellen, damit datenbasierte Produkte und Geschäftsmodelle von morgen entstehen. Anders verhält es sich mit der IT. Wer quasi nur noch den Schlüssel umdrehen will, um sich auf Entwicklung und Tests von Anwendungen zu konzentrieren, sollte über eine hyperkonvergente Infrastruktur in seinem Rechenzentrum nachdenken. Automatisierung fängt dann bereits beim Deployment an, wodurch sich die Inbetriebnahme einer solchen Komplettlösung auf unter 45 Minuten verkürzt.

Das Administrieren der aufeinander abgestimmten und softwaregesteuerten Komponenten Server, Storage, Compute, Network und Virtualisierung geschieht über die zentrale Konsole. Routineaufgaben verlangen nur noch wenige Eingriffe. So stellen das Aufsetzen und Provisionieren einer virtuellen Maschine (VM) oder von Backups im Idealfall bloß noch leichte Fingerübungen auf der Tastatur dar. Der Administrationsaufwand bleibt auch bei anderen Standardaufgaben auf das Nötigste beschränkt.

Wann ein konvergentes 5-Gänge-Menü enttäuscht
Zwar verringern auch konvergente Infrastrukturen (CI) den Administrationsaufwand schon erheblich. Server, Speicher, Netzwerk und Virtualisierung funktionieren reibungslos in diesem einem Hardware-zentrierten System. Eine CI-Lösung lässt sich mit einem perfekt abgestimmten 5-Gänge-Menü vergleichen: Ein Unternehmen erhält im ersten Gang das Rack, als Zweites Netzwerk und danach Compute auf Sterne-Niveau serviert. Gang Nummer 4 mit Hypervisor und Speicherbetriebssystem bereiten den Abschluss für die Applikation im Finale vor. Ein Unternehmen kann sich über ein bestens ausbalanciertes System freuen, das der Hersteller genau nach seinen Anforderungen zusammenstellt, damit beispielsweise SAP HANA performant läuft.


Was aber passiert, wenn ein Gast anstelle eines Filets im vierten Gang plötzlich drei oder vier davon möchte? Der Kellner muss erst in der Küche nachfragen. Überträgt man den Filetwunsch auf das Rechenzentrum, würde ein Anwenderunternehmen neben SAP auch noch eine VDI (Virtual Desktop Infrastructure) betreiben wollen. Für diese Kombination ist das CI-System nicht optimal eingestellt. Denn auf einmal treffen völlig neue Anforderungen auf eine physikalisch aufgebaute Plattform, die für einen gänzlich anderen Workload definiert wurde.

Bei einer HCI-Umgebung, die genau auf die Konsolidierung verschiedener Workloads abgestimmt ist, kann ein Unternehmen flexibel reagieren. Eine HCI der neuen Generation befreit von dem Zwang, in festen Blöcken zu wachsen. Denn wer mit der Einstiegsvariante von zwei Chassis mit zwei Compute- und vier Storage-Nodes startet, kann sowohl um einzelne Speicher- als auch Rechenknoten erweitern. Unternehmen bleibt so Überprovisionierung erspart. Zudem sinken ihre Hardware- und Lizenzkosten.

Softwaregesteuerte Standardkomponenten
Auf Flash Storage und Standard Compute Nodes setzen in einer neuen HCI das Speicherbetriebssystem, zum Beispiel Element OS, und ein Hypervisor wie VMware ESXi auf. Komplett virtualisierte Rechen- und Speicherressourcen stehen in einem Pool gemeinschaftlich für die Applikationen zur Verfügung. Weitere Rechenzentrumsfunktionen, wie Deduplizierung und Komprimierung, WAN-Optimierung, Hochverfügbarkeit, Replikation, Datensicherung sowie Backup und Recovery sind standardmäßig integriert oder lassen sich als sich Drittanbieterlösung per API anbinden. Schnittstellen zu AWS, Commvault, Intel, MongoDB Enterprise, Veeam und VMware erweitern die Möglichkeiten für einen effizienten IT-Betrieb.

Letztendlich muss eine HCI-Kombination verschiedene Workloads wie Application Hosting, DB-Hosting oder VDI-Hosting abdecken und Spielraum bieten, auf Veränderungen zu reagieren. Wenn jedoch viele verschiedene Applikationen gleichzeitig auf einem System laufen, bieten HCIs der ersten Generation keine Möglichkeit, einzelnen Applikationen garantierte Ressourcen zuzuweisen. Es stellt sich das sogenannte Noisy-Neighbour-Syndrom ein, das in jeder IT-Infrastruktur auftauchen kann. Die Anwendung, die am lautesten nach Ressourcen schreit, also höhere I/Os und mehr Bandbreite benötigt, bekommt diese auch. Für die anderen bleibt nur der Rest und die Performance geht runter. Der ungestörte Betrieb aller Applikationen auf einer HCI lässt sich damit nicht gewährleisten.

Seite 1: Softwaregesteuerte Standardkomponenten
Seite 2: Doppelte Datenblöcke sichern ab


Seite 1 von 2 Nächste Seite >>


ln/Johannes Wagmüller, Director Solutions Engineering bei NetApp

Tags

Ähnliche Beiträge

Drei zentrale Herausforderungen für das Datenmanagement

Daten sind ein unverzichtbarer Vermögenswert für Unternehmen geworden. Für ITAdministratoren bedingt dies, neben fundamentalen Datenmanagement-Anforderungen, Veränderungen in den Bereichen Organisationsstruktur, Kultur und Leadership sowie Rollen und Skills voranzutreiben. Der Fachartikel zählt die drei größten Herausforderungen auf, vor denen Organisationen in Bezug auf Datenmanagement stehen.

Im Test: Power Admin Storage Monitor 9.3

Eine effiziente Planung der Storage-Landschaft und ihrer Verfügbarkeit setzt detailliertes Wissen über Beschaffenheit und Alter der gespeicherten Daten voraus. Power Admin Storage Monitor verspricht, den Datenbestand umfassend zu analysieren, laufend zu überwachen und automatisch auf Ereignisse zu reagieren. Dabei liegt der Schwerpunkt auf Windows, doch das flexible Tool bindet auch andere Speicher im Netzwerk per SNMP an.

All-Flash-Rechenzentrum beim Bio-Großhändler

Seit vielen Jahren arbeiten Storage-Anbieter daran, All-Flash-Systeme so zu konzipieren, dass sie sich nicht nur für Tier-1-Anwendungen, sondern zur Speicherung aller Daten im Rechenzentrum verwenden lassen. Das Ziel, dessen Erreichung vor allem die Anschaffungskosten im Weg standen, lautete: All-Flash-Data Center. Wie sieht es in der Praxis aus? Ein deutsches Handelsunternehmen berichtet erstmals über seine Alltagserfahrungen.