Fachartikel

Hardware für Virtualisierungsprojekte planen (2)

Bei der Planung der Hardware für ein Virtualisierungsprojekt steht der IT-Verantwortliche vor einem großen Berg an Lösungen, Anbietern und unterschiedlichen Techniken. Neben einem Überblick der Komponentenvielfalt schauen wir auch auf hyperkonvergente Systeme, in denen Virtualisierung und Storage miteinander verschmelzen. In der zweiten Folge beschäftigen wir uns mit RAID-Controller, der passenden Netzwerkgeschwindigkeit und vor allem der richtigen Auswahl der Server.
Die passende Hardware ist auch bei Virualisierungsprojekten mehr als nur die Summe der einzelnen Teile.
Klein, aber immens wichtig: RAID-Controller
Achten Sie beim Kauf der Hardware darauf, dass Sie beim Einsatz von SATA- oder SAS-Speicher einen guten Hardware-RAID-Controller mit ausreichend Cache verwenden. Diese Art von Controller besitzt mittlerweile zwischen einem und 8 GByte Cache. Nicht selten finden sich Server, die eine sehr gute Hardware-Ausstattung haben, in denen aber ein Low-End Controller verbaut ist, der mit der anliegenden Leistung vollkommen überfordert ist. Diese kleine Komponente ist ungemein wichtig.

Kommt NVMe-Speicher zum Einsatz, wird dieser in den meisten Fällen direkt auf dem Mainboard als PCIe-Karte oder in einem speziellen Hot-Plug-Cage betrieben, der ebenfalls direkt am Mainboard angebunden ist. In diesem Fall können Sie auf den Betrieb von einem performanten RAID-Controller verzichten, für das Betriebssystem reicht meist ein einfaches Modell aus.

Es ist sogar denkbar, das Betriebssystem vom Hypervisor auf eine PCIe-Karte, auf der zwei M.2-SSDs im RAID1 laufen, zu verlagern. Somit sparen Sie zwei Festplatten beziehungsweise SSDs sowie die dazugehörigen Slots im Server, trotzdem hat das Hypervisor-OS ausreichend Platz für eventuelle Dumps oder Windows, wenn Hyper-V eingesetzt wird.

10 GBit/s hilft viel und muss nicht teuer sein
Ein Hypervisor muss an vielen Stellen mit der Außenwelt kommunizieren: VMs senden und empfangen Daten, es passiert ein Management des Hypervisors, die Systeme müssen aktualisiert werden und in regelmäßigen Abständen erfolgt ein Backup, das in den meisten Fällen per Netzwerk auf ein anderes System gespeichert wird.

Zum aktuellen Zeitpunkt ist die Nutzung von 10 GBit/s im Netzwerk absoluter Standard, in einigen Fällen ist sogar eine noch höhere Bandbreite im Einsatz (dazu später mehr). Achten Sie darauf, dass ausreichend Bandbreite zur Verfügung steht. Das häufige Argument gegen den Einsatz von einer Bandbreite von mehr als 1 GBit/s ist, "dass die Mitarbeiter und Kollegen durch den Einsatz von Terminal Services niemals mehr Bandbreite als 100 MBit/s erzeugen und das die aktuell genutzte GBit-Bandbreite vollkommen ausreichend ist. Durch den Einsatz eines inkrementellen Backupverfahrens liegen die täglichen Änderungen im kleinen GByte-Bereich und eine Sicherung kann in wenigen Minuten durchlaufen. Die einmalige Vollsicherung erfolgt dann am Wochenende, wenn sowieso niemand mit den Systemen arbeitet und danach ist mit einem GBit alles gut."
Dies funktioniert so lange, bis es zu einem Ausfall von einem System oder, noch schlimmer, zu einer (Teil-)Verschlüsselung der Daten durch einen Trojaner kommt. Müssen mehrere TByte Daten über ein 1-GBit-Netzwerk wiederhergestellt werden, kann es unter Umständen mehrere Tage dauern, bis dieser Vorgang abgeschlossen ist. All dies lässt sich im besten Fall um den Faktor zehn beschleunigen, wenn auf 10 GBit/s gesetzt wird. Die Preise für solche Hardware sind in den letzten Jahren signifikant gesunken, sodass der Einsatz nicht unbedingt teuer sein muss.

Ein weiterer Grund für eine hohe Bandbreite ist ein Transfer von Daten zwischen den Hypervisor-Systemen und zum Backupsystem. Sie können mittlerweile sehr einfach virtuelle Maschinen zwischen zwei Hosts verschieben, selbst ohne gemeinsamen Storage. Haben Sie unseren Ratschlag beherzigt und setzen einen Server mit Flash-Speicher ein, können Sie hier mit Schreib- und Leseraten im GByte-Bereich pro Sekunde arbeiten. Ist das Netzwerk hierfür nicht ausgelegt, nützen Ihnen die schnellsten SSDs nichts. Teilweise können Sie auch Hosts direkt miteinander verbinden (ein sogenannter Direct-Connect), so sparen Sie sich weitere Switches. In solch einem Fall könnten Sie auch 25 oder 50 GBit/s einsetzen. Eine Dual-Port-Karte im Enterprise-Bereich liegt zum aktuellen Zeitpunkt bei unter 250 Euro (Mellanox ConnectX-4 Lx).

Beim Einsatz von Hyper-V können Sie bei der Livemigration von VMs zwischen unterschiedlichen Host-Systemen auf SMB3 und RDMA-Techniken zurückgreifen. Hierbei haben wir schon Bandbreiten von bis zu 115 GBit/s beobachtet – der begrenzende Faktor war in diesem Fall der PCIe-Bus. Je schneller Ihre VMs zwischen den Hosts migriert werden können, desto weniger Delta-Daten fallen an, was sich ebenfalls positiv auf die Dauer der Migration auswirkt. Muss ein Server in den Wartungsmodus versetzt werden, der knapp 500 GByte VM-Memory betreibt, dauert dies bei einer 1-GBit/s-Anbindung (ohne die Änderungen während dieser Zeit zu berücksichtigen) knapp 70 Minuten. Allein durch die Nutzung von 10 GBit/s verringert sich dieser Wert um das zehnfache (also knapp 7 Minuten), bei 25 GBit/s sind wir schon bei unter drei Minuten.

Nutzen Sie statt einem einzelnen Port zwei oder mehr, profitieren Sie hier von der SMB3-Multichannel-Funktionalität. Die Daten werden in diesem Fall parallel über alle verfügbaren Ports gesendet, was sich erneut positiv auf die Dauer auswirkt. Dank RDMA-Technologien wird bei diesem Vorgang die CPU des Servers nicht spürbar belastet, da ein Offloading auf die Karten stattfindet. So steht noch ausreichend Leistung für den virtuellen Workload zur Verfügung.

Seite 2: Die richtige Wahl der Server


Seite 1 von 2 Nächste Seite >>
8.03.2021/jp/ln/Jan Kappen

Nachrichten

Nahtlos speichern in der Cloud [17.03.2021]

Pure Storage bietet "Pure Cloud Block Store" nun auch auf dem Azure Marketplace an. Mit einer gemeinsamen Datenebene in Multicloud-Umgebungen können Unternehmen flexibler in die Cloud wechseln. Dies soll eine nahtlose Portierung von Anwendungen in die Cloud sowie die Ergänzung lokaler Workloads mit Disaster Recovery und Hochverfügbarkeit in der Cloud ermöglichen. [mehr]

Schutz vor Ransomware und Datenverlust [25.02.2021]

Veeam Software hat Veeam Backup & Replication in Version 11 vom Stapel gelassen. Die Software ermöglicht Datensicherung für Cloud-, virtuelle, physische und Enterprise-Workloads. Mit mehr als 200 neuen Features könne das Programm die Komplexität einer Multicloud-Umgebung für AWS, Microsoft Azure und Google Cloud Platform bewältigen und biete zudem verbesserten Schutz gegen Ransomware. [mehr]

Tipps & Tools

Benutzerrollen in Microsoft Teams verwalten [4.04.2021]

Microsoft Teams gehört derzeit zu den am meisten verwendeten Diensten in Microsoft 365. Auch hierfür gibt es verschiedene Benutzerrollen. Unser Tipp erklärt die wichtigsten Gruppen für die Verwaltung und Delegierung von Microsoft Teams und zeigt anhand eines Beispiels, wie Sie einem Benutzer eine Rolle zuweisen. [mehr]

OTRS Community Edition lebt als Fork weiter [25.03.2021]

Nach dem abrupten Aus der populären Community-Edition des Ticketsystems OTRS setzt sich ein neu formierter Zusammenschluss von IT-Dienstleistern für ihren Fortbestand ein. Konkret hat sich die OTTER Alliance auf die Fahne geschrieben, den OTRS-Fork Znuny weiterzuentwickeln. [mehr]

Buchbesprechung

Computernetze und Internet of Things

von Patrick-Benjamin Bök, Andreas Noack, Marcel Müller

Anzeigen