Seite 2 - Red Hat Virtualization: Best Practices (2)

Lesezeit
3 Minuten
Bis jetzt gelesen

Seite 2 - Red Hat Virtualization: Best Practices (2)

14.06.2021 - 00:00
Veröffentlicht in:
Die Installation der Hosted Engine hat zu diesem Zeitpunkt bereits eine Storage-Domain erstellt und dieser die Rolle "Master Domain" zugewiesen. Auf dieser sichert RHV alle Storage-relevanten Metadaten. Daher können Sie mit der Installation weiterer Hypervisoren fortfahren. Dazu klicken Sie in der Ansicht "Compute / Hosts" auf "New" und tragen dort die Verbindungsdaten zum nächsten Hypervisor ein. Dabei gilt es jedoch, ein paar wichtige Details zu beachten.

Powermanagement einrichten
Anders als vSphere fordert RHV (für den produktiven Einsatz) ein korrekt konfiguriertes Power-Management für Hypervisor-Knoten. Sollte ein Node ausfallen, könnte dieser – obwohl nicht vom Managementserver ansprechbar – dennoch noch einen Write Lock auf VMs auf dem Shared Storage halten. Das könnte beim Failover der VMs zu großen Problemen und defekten VM-Disks führen. Um dieses Szenario eindeutig auszuschließen, schaltet der RHV-Manager über das Power-Management einfach den defekten Knoten aus. Zu den von RHV unterstützen Power-Management-Funktionen gehören neben IPMI alle Managementkarten der bekannten Serverhersteller wie HP iLO oder Dell iDRAC, aber auch intelligente Power-Distributionslösungen wie beispielsweise von APC. RHV funktioniert zwar auch gut ohne Power-Management, aber eine produktive Installation sollte nicht ohne arbeiten.

Hosted Engine richtig konfigurieren
Der Host-Setup-Dialog führt den Tab "Hosted Engine" auf. Dort fragt das Tool den Punkt "Choose hosted engine Deployment action" ab. Das ist leider etwas verwirrend formuliert. Der RHV-Anfänger denkt sich an dieser Stelle: Warum soll ich die Hosted Engine deployen, ich habe ja bereits eine und wählt den Default-Wert "none", anstatt "deploy". Hinter dieser Frage verbirgt sich aber eine andere Funktion.

Wählen Sie hier "deploy", installiert RHV die nötigen Tools wie etwa pacemaker zum Verwalten der Hosted-Engine-VM auf diesem RHV-Knoten. Nur Hypervisor-Nodes mit "deploy" können die Hosted Engine betreiben. Das dumme hieran ist: Die Funktion lässt sich nicht einfach nachträglich zu einem bestehenden Hypervisor hinzufügen. Wer einen Hypervisor ohne Hosted-Engine-Tools aufrüsten will, muss ihn erst leerräumen und in den Maintenance Mode versetzen. Dann startet das RHVM-Deployment-Tool eine Neuinstallation des Knotens mit Hosted-Engine-Tools.

In der Praxis wird ein RHV-Architekt einen Cluster aus drei bis fünf Hypervisor-Knoten mit eigenen Storage-Volumes einrichten, der für administrative VMs und Funktionen reserviert bleibt. Nur die Hypervisor-Knoten dieses Clusters erhalten die Hosted-Engine-Rolle zugewiesen. Für die Integration des RHV-Managers in ein Benutzerverzeichnis kommen Sie leider nicht um ein paar Dialoge auf der Kommandozeile herum. Angemeldet als "root" auf der Shell der RHV-M-VM geben Sie folgendes Kommando ein:
ovirt-engine-extension-aaa-ldapsetup
Dieses führt Sie per Menü in wenigen Schritten durch die Integration in einen der unterstützten Verzeichnisdienste. Mit der Directory-Integration erlaubt RHV dann bestimmten Gruppen oder Usern aus dem Verzeichnis, auf das Admin- und User-Portal zuzugreifen, Maschinen zu erstellen oder zu verwalten. RHV unterstützt mehrere Verzeichnisverbindungen gleichzeitig, sodass verschiedene Datacenter oder Cluster ihre Zugriffsrechte aus unterschiedlichen Directories beziehen.

Datacenter- und Cluster-Struktur erstellen
Laufen alle Hypervisor-Knoten, folgt die Konfiguration der Datacenter und Cluster im Verbund. Das Datacenter als organisatorischer "Kopf" der RHV-Installation legt den Kompatibilitätslevel der RHV-Version, die Speicherpools und logischen Netzwerke fest. Typischerweise richten Sie ein Datacenter pro Standort ein. Als Untereinheiten des Datacenters treten "Cluster" auf. Wie Sie Ihr Datacenter aufteilen, bleibt Ihnen überlassen. In der Praxis hat sich ein separater Cluster für administrative VMs und die Hosted Engine bewährt. Ebenso müssen Hosts mit abweichenden CPU-Architekturen in separaten Clustern laufen. Das gilt zum einen für Intel-Prozessoren mit unterschiedlichen Generationen von CPUs. Zudem unterstützt RHV auch Power-Prozessoren von IBM ab Generation 8.

Der Cluster legt auch die Basisparameter für Ressourcen und Overcommitment fest. Traditionell arbeitet RHV sehr konservativ: Es startet nur VMs mit so vielen virtuellen CPU-Kernen, wie im Cluster tatsächliche CPU-Kerne zur Verfügung stehen. Ebenso erlaubt RHV per Default kein Memory Overcommit. Diese Settings lassen sich ebenso anpassen wie NUMA-Beschränkungen. Bei letzterem achtet RHV darauf, dass virtuelle CPUs und RAM innerhalb einer NUMA-Zone eines Prozessors bleiben, um eine hohe Performance zu erzielen. Die Cluster-Einstellungen legen auch die Parameter für KSM (Kernel Same Page Merging, eine Art RAM-Deduplizierung) und Affinity Labels fest. Mit Hilfe der Labels lassen sich gekennzeichnete VMs gezielt auf passenden Cluster-Nodes ausführen. Zudem unterstützt der Cluster Affinity Groups, um bestimmte VMs auf den gleichen oder zwingend auf getrennten Nodes auszuführen. Die Migration Policy legt fest, wie aggressiv RHV laufende Maschinen von Host-zu-Host verschiebt, um eine homogene Cluster-Auslastung zu gewähren.

Neben den offensichtlichen Einstellungen offeriert ein RHV-Cluster auch eine Reihe erweiterter Optionen, die sich nicht direkt in der GUI zeigen. RHV verfügt beispielsweise über "Migration Policies". Diese legen unter anderem die Timeouts für das Verschieben laufender VMs fest. Simple VMs kommen mit den Standardeinstellungen klar. Aber immer öfter kommen Maschinen mit viel RAM und viel Aktivität im RAM (etwa In-Memory-Datenbanken) an die Grenzen. Diese Systeme brauchen vor allem in der zweiten Phase der Live-Migration (Phase 1: Snapshot der laufenden Maschine und Kopie des RAM-Snapshots, Phase 2: Stopp der VM, zweiter Snapshot, Übertragung der Differenz zwischen Snapshot 1 und 2) der Maschine mehr Zeit. RHV erlaubt Ihnen, eigene Migration Policies zu erstellen und diese nicht nur einem Cluster, sondern individuell einzelnen Maschinen zuzuweisen.

Seite 2: Installation von RHV

Im dritten Teil erklären wir, was beim laufenden Betrieb von RHV wichtig ist und stellen eine hyperkonvergente Variante für kleine Umgebungen vor. In der ersten Folge des Workshops gingen wir auf die Grundlagen von RHV ein und erklärten die architektonischen Unterschiede zu vCenter.

<< Vorherige Seite Seite 2 von 2


dr/ln/Max Lessel

Ähnliche Beiträge

Azure mit lokalen Netzen verbinden (3)

Azure bietet vielfältige Möglichkeiten, um Ressourcen in der Cloud mit lokalen Netzwerken zu verbinden. Dazu gehören auch Sicherheitsmechanismen und Loadbalancer, die den Datenverkehr zwischen Cloud und lokalem Rechenzentrum nicht nur zur Verfügung stellen, sondern absichern und hochverfügbar konfigurieren. IT-Administrator zeigt die Wege auf, um die Cloudumgebung mit dem lokalen Netzwerk zu verbinden. Im dritten und letzten Teil der Workshopserie zeigen wir, wie Sie virtuelle Firewalls hochziehen.

Azure mit lokalen Netzen verbinden (2)

Azure bietet vielfältige Möglichkeiten, um Ressourcen in der Cloud mit lokalen Netzwerken zu verbinden. Dazu gehören auch Sicherheitsmechanismen und Loadbalancer, die den Datenverkehr zwischen Cloud und lokalem Rechenzentrum nicht nur zur Verfügung stellen, sondern absichern und hochverfügbar konfigurieren. IT-Administrator zeigt die Wege auf, um die Cloudumgebung mit dem lokalen Netzwerk zu verbinden. Im zweiten Teil binden wir den Connection Broker an und erklären, was es mit dem Cloud Witness auf sich hat.

Azure mit lokalen Netzen verbinden (1)

Azure bietet vielfältige Möglichkeiten, um Ressourcen in der Cloud mit lokalen Netzwerken zu verbinden. Dazu gehören auch Sicherheitsmechanismen und Loadbalancer, die den Datenverkehr zwischen Cloud und lokalem Rechenzentrum nicht nur zur Verfügung stellen, sondern absichern und hochverfügbar konfigurieren. IT-Administrator zeigt die Wege auf, um die Cloudumgebung mit dem lokalen Netzwerk zu verbinden. Im ersten Teil der Workshopserie schildern wir das Prinzip virtueller Netzwerke.