Switching im Datacenter der Zukunft

Lesezeit
2 Minuten
Bis jetzt gelesen

Switching im Datacenter der Zukunft

11.11.2015 - 14:30
Veröffentlicht in:
Die Datacenter-Architekturen der Unternehmen befinden sich im Umbruch: Das klassische 3-Tier-Modell mit Access-, Aggregation- und Core-Layer stößt im Zeitalter virtualisierter Infrastrukturen, dedizierter Storage-Umgebungen und zunehmender M2M-Kommunikation – und der damit verbundenen Zunahme des Ost-West-Traffics – an seine Grenzen. Der Fachartikel erklärt, wie innovative, eng vermaschte Switching-Fabrics mit flachen Architekturen, weniger Hops und besseren Latenzen Abhilfe schaffen.
Es ist gar nicht so lange her, da machte in den Rechenzentren der Nord-Süd-Traffic zwischen Client und Server den Großteil des Kommunikationsaufkommens aus. Folglich setzten die meisten Datacenter-Betreiber auf klassische, dreistufige Netzwerk-Architekturen, die dafür konzipiert waren Daten möglichst effizient in das Datacenter hinein oder heraus zu transportieren. Im Zuge der Virtualisierung und Automatisierung der Umgebungen hat in den letzten Jahren aber die Kommunikation zwischen den Anwendungs- und Storage-Servern überproportional zugenommen. Inzwischen macht der Ost-West-Traffic im Datacenter nach Expertenschätzungen bereits rund 75 Prozent des Datenvolumens aus.

In der Praxis müssen viele RZ-Betreiber die Erfahrung machen, dass ihre klassisch-dreistufige Netzwerk-Architektur für die Bewältigung von Ost-West-Traffic nur bedingt geeignet ist: Selbst Datenpakete, die von einem Server zu einem anderen Server auf der gleichen Ebene gesendet werden, müssen dafür mehrmals zwischen den Tiers hin- und herwechseln. Diese hohe Zahl von Hops führt zwangsläufig zu hohen Latenzen – und die darf es gerade in einer virtualisierten  Umgebung einfach nicht geben.

Das Problem ist allgegenwärtig. Dementsprechend haben sich inzwischen auch alle großen Netzwerkausrüster der Fragestellung angenommen und entwickeln (oder bieten bereits) Lösungen, die den Transport des Ost-West-Traffics optimieren sollen.

Die Fabric prägt die Strategie
Um auch in Ost-West-Richtung einen reibungslosen Flow des Traffics sicherzustellen, haben es sich die großen Netzwerk-Hersteller auf die Fahnen geschrieben, die klassische 3-Tier-Struktur der Netzwerke auf eine flache, zwei- oder idealerweise nur einstufige Fabric-Struktur zu reduzieren. Um diese Vereinfachung zu erreichen, werden in der Regel mehrere physikalische Switche zu einem einzigen logischen Gerät verbunden, das dann die Portdichte, Ausfallsicherheit und Performance eines ganzen LANs in einem virtuellen Gehäuse verbindet und dabei so einfach zu verwalten ist wie ein einzelner Switch. Auf diese Weise lässt sich die Anzahl der Systeme, Verbindungen und Tiers im Datacenter nachhaltig minimieren. Das senkt die Komplexität der gesamten Infrastruktur – und ermöglicht es, Ost-West-Traffic wesentlich effizienter zu transportieren.

Um unterschiedlichen Use Cases, Anforderungen und Unternehmensgrößen gerecht zu werden, bieten die meisten Hersteller in ihren Switching-Portfolios eine Reihe abgestufter Fabric-Architekturen, mit denen sich nahezu jedes Einsatzszenario abbilden lässt:

Die Einstiegslösung: Virtual Chassis
Ob Cisco, Brocade, Juniper Networks oder Extreme Networks: Stand heute bietet praktisch jeder Netzwerk-Hersteller eine eigenentwickelte Stacking- oder Virtual Chassis-Technologie, mit der sich eine überschaubare Zahl von Switchen über eine einheitliche Highspeed-Backplane zu einem logischen System bündeln lässt. Die vernetzten Switche agieren dann nach außen hin wie ein einziger großer Switch, der die Netzwerk-Tiers für Access und Aggregation nahtlos integriert und damit die Anzahl der Hops minimiert und somit auch eine geringe Latenz ermöglicht. So lassen sich beispielsweise mit dem Virtual Chassis von Juniper Networks bis zu zehn QFX5100-Switche mit je 48 10-GbE-Ports zu einem homogenen High-End-System mit 480 10-GbE-Ports bündeln. Alternativ können aber auch ältere EX-Modelle mit 1-GbE- und 10-GbE-Ports und leistungsfähige 40-GbE-QFX-Switche nach Belieben kombiniert werden, etwa um unterschiedlichen Anwendungsanforderungen Rechnung zu tragen.

Über die Performance-Optimierung hinaus bietet ein solches Virtual Chassis den Unternehmen auch im Hinblick auf die Zukunftssicherheit und Skalierbarkeit der Infrastruktur eine Reihe von Vorteilen. So lassen sich die logischen Systeme im Falle steigender Anforderungen einfach und flexibel erweitern, indem das virtuelle Gehäuse um zusätzliche Switche ergänzt wird, um die Portdichte zu erhöhen. Das funktioniert in der Regel selbst dann, wenn die neuen Systeme an einem ganz anderen Standort im Einsatz sind, sofern dieser mit einer Glasfaserverbindung erreichbar ist.

Im Hinblick auf den Betrieb und die Administration des Virtual Chassis verdienen drei Aspekte besondere Erwähnung: zum Ersten die hohe Verfügbarkeit des Systems, die dank automatisiertem Fail-Over, Nonstop-Software-Updates und Redundantem Routing oft bei annähernd 100 Prozent liegt. Zum Zweiten die Administrierbarkeit, die dank der Zusammenführung der Switche in einer Plattform vereinfacht wird – zumal die Netzwerkkomponenten dann in der Regel mit einer Administrationsoberfläche verwaltet werden. Und zum Dritten die aufgrund des geringeren Stromverbrauchs und der geringeren Stellfläche attraktiven laufenden Kosten der Infrastruktur.

    Seite 1: Die Fabric prägt die Strategie
    Seite 2: Virtual Chassis mit Leaf-Spine-Architektur


Seite 1 von 2 Nächste Seite >>




ln/Joern Kraus, Senior System Engineer bei Westcon Security

Ähnliche Beiträge

Netzwerkverwaltung an der Medizinischen Universität Wien

Die IT-Abteilung der Medizinischen Universität Wien betreibt das Netzwerk der Universität, wozu die Betreuung von rund 10.000 Anschlüssen sowie Hunderten Endgeräten und Servern gehört. Für diese Aufgabe wurde eine neue Informations- und Planungssoftware für Kabelmanagement und Netzwerkdokumentation implementiert. Das neue Werkzeug ist flexibel, skalierbar und deckt die steigenden Sicherheitsanforderungen voll ab.

Im Test: Sunbird DCIM

Das DCIM-Werkzeug Sunbird verspricht die umfassende Verwaltung von Assets im Rechenzentrum mit vielen nützlichen Funktionen, ansprechender Oberfläche und maximalem Komfort. Dies gelingt mit der Software auch in geografisch verteilten Landschaften. Dabei liefert Sunbird wertvolle Daten zum Zustand und Energieverbrauch, und schafft somit einen guten Einblick in das RZ-Geschehen.

Zero-Touch-Provisionierung von aktiven Netzwerkkomponenten (3)

Zero-Touch-Provisionierungsprozesse sind im Rollout von Client-PCs und Servern bereits lange Zeit Standard. Im Gegensatz dazu kommen diese Prozesse bei aktiven Netzwerkkomponenten wie Routern und Switches nur selten zum Einsatz. Im dritten und letzten Teil gehen wir auf weitere Varianten ein, etwa die ZTP-Provisionierung ohne proprietären Server, die Boot-Loader-Variante iPXE oder das alte Verfahren AutoInstall.