Lesezeit
2 Minuten
Switching im Datacenter der Zukunft
Die Datacenter-Architekturen der Unternehmen befinden sich im Umbruch: Das klassische 3-Tier-Modell mit Access-, Aggregation- und Core-Layer stößt im Zeitalter virtualisierter Infrastrukturen, dedizierter Storage-Umgebungen und zunehmender M2M-Kommunikation – und der damit verbundenen Zunahme des Ost-West-Traffics – an seine Grenzen. Der Fachartikel erklärt, wie innovative, eng vermaschte Switching-Fabrics mit flachen Architekturen, weniger Hops und besseren Latenzen Abhilfe schaffen.
Es ist gar nicht so lange her, da machte in den Rechenzentren der Nord-Süd-Traffic zwischen Client und Server den Großteil des Kommunikationsaufkommens aus. Folglich setzten die meisten Datacenter-Betreiber auf klassische, dreistufige Netzwerk-Architekturen, die dafür konzipiert waren Daten möglichst effizient in das Datacenter hinein oder heraus zu transportieren. Im Zuge der Virtualisierung und Automatisierung der Umgebungen hat in den letzten Jahren aber die Kommunikation zwischen den Anwendungs- und Storage-Servern überproportional zugenommen. Inzwischen macht der Ost-West-Traffic im Datacenter nach Expertenschätzungen bereits rund 75 Prozent des Datenvolumens aus.
In der Praxis müssen viele RZ-Betreiber die Erfahrung machen, dass ihre klassisch-dreistufige Netzwerk-Architektur für die Bewältigung von Ost-West-Traffic nur bedingt geeignet ist: Selbst Datenpakete, die von einem Server zu einem anderen Server auf der gleichen Ebene gesendet werden, müssen dafür mehrmals zwischen den Tiers hin- und herwechseln. Diese hohe Zahl von Hops führt zwangsläufig zu hohen Latenzen – und die darf es gerade in einer virtualisierten Umgebung einfach nicht geben.
Das Problem ist allgegenwärtig. Dementsprechend haben sich inzwischen auch alle großen Netzwerkausrüster der Fragestellung angenommen und entwickeln (oder bieten bereits) Lösungen, die den Transport des Ost-West-Traffics optimieren sollen.
Die Fabric prägt die Strategie
Um auch in Ost-West-Richtung einen reibungslosen Flow des Traffics sicherzustellen, haben es sich die großen Netzwerk-Hersteller auf die Fahnen geschrieben, die klassische 3-Tier-Struktur der Netzwerke auf eine flache, zwei- oder idealerweise nur einstufige Fabric-Struktur zu reduzieren. Um diese Vereinfachung zu erreichen, werden in der Regel mehrere physikalische Switche zu einem einzigen logischen Gerät verbunden, das dann die Portdichte, Ausfallsicherheit und Performance eines ganzen LANs in einem virtuellen Gehäuse verbindet und dabei so einfach zu verwalten ist wie ein einzelner Switch. Auf diese Weise lässt sich die Anzahl der Systeme, Verbindungen und Tiers im Datacenter nachhaltig minimieren. Das senkt die Komplexität der gesamten Infrastruktur – und ermöglicht es, Ost-West-Traffic wesentlich effizienter zu transportieren.
Um unterschiedlichen Use Cases, Anforderungen und Unternehmensgrößen gerecht zu werden, bieten die meisten Hersteller in ihren Switching-Portfolios eine Reihe abgestufter Fabric-Architekturen, mit denen sich nahezu jedes Einsatzszenario abbilden lässt:
Die Einstiegslösung: Virtual Chassis
Ob Cisco, Brocade, Juniper Networks oder Extreme Networks: Stand heute bietet praktisch jeder Netzwerk-Hersteller eine eigenentwickelte Stacking- oder Virtual Chassis-Technologie, mit der sich eine überschaubare Zahl von Switchen über eine einheitliche Highspeed-Backplane zu einem logischen System bündeln lässt. Die vernetzten Switche agieren dann nach außen hin wie ein einziger großer Switch, der die Netzwerk-Tiers für Access und Aggregation nahtlos integriert und damit die Anzahl der Hops minimiert und somit auch eine geringe Latenz ermöglicht. So lassen sich beispielsweise mit dem Virtual Chassis von Juniper Networks bis zu zehn QFX5100-Switche mit je 48 10-GbE-Ports zu einem homogenen High-End-System mit 480 10-GbE-Ports bündeln. Alternativ können aber auch ältere EX-Modelle mit 1-GbE- und 10-GbE-Ports und leistungsfähige 40-GbE-QFX-Switche nach Belieben kombiniert werden, etwa um unterschiedlichen Anwendungsanforderungen Rechnung zu tragen.
Über die Performance-Optimierung hinaus bietet ein solches Virtual Chassis den Unternehmen auch im Hinblick auf die Zukunftssicherheit und Skalierbarkeit der Infrastruktur eine Reihe von Vorteilen. So lassen sich die logischen Systeme im Falle steigender Anforderungen einfach und flexibel erweitern, indem das virtuelle Gehäuse um zusätzliche Switche ergänzt wird, um die Portdichte zu erhöhen. Das funktioniert in der Regel selbst dann, wenn die neuen Systeme an einem ganz anderen Standort im Einsatz sind, sofern dieser mit einer Glasfaserverbindung erreichbar ist.
Im Hinblick auf den Betrieb und die Administration des Virtual Chassis verdienen drei Aspekte besondere Erwähnung: zum Ersten die hohe Verfügbarkeit des Systems, die dank automatisiertem Fail-Over, Nonstop-Software-Updates und Redundantem Routing oft bei annähernd 100 Prozent liegt. Zum Zweiten die Administrierbarkeit, die dank der Zusammenführung der Switche in einer Plattform vereinfacht wird – zumal die Netzwerkkomponenten dann in der Regel mit einer Administrationsoberfläche verwaltet werden. Und zum Dritten die aufgrund des geringeren Stromverbrauchs und der geringeren Stellfläche attraktiven laufenden Kosten der Infrastruktur.
Seite 1: Die Fabric prägt die Strategie
Seite 2: Virtual Chassis mit Leaf-Spine-Architektur
ln/Joern Kraus, Senior System Engineer bei Westcon Security
In der Praxis müssen viele RZ-Betreiber die Erfahrung machen, dass ihre klassisch-dreistufige Netzwerk-Architektur für die Bewältigung von Ost-West-Traffic nur bedingt geeignet ist: Selbst Datenpakete, die von einem Server zu einem anderen Server auf der gleichen Ebene gesendet werden, müssen dafür mehrmals zwischen den Tiers hin- und herwechseln. Diese hohe Zahl von Hops führt zwangsläufig zu hohen Latenzen – und die darf es gerade in einer virtualisierten Umgebung einfach nicht geben.
Das Problem ist allgegenwärtig. Dementsprechend haben sich inzwischen auch alle großen Netzwerkausrüster der Fragestellung angenommen und entwickeln (oder bieten bereits) Lösungen, die den Transport des Ost-West-Traffics optimieren sollen.
Die Fabric prägt die Strategie
Um auch in Ost-West-Richtung einen reibungslosen Flow des Traffics sicherzustellen, haben es sich die großen Netzwerk-Hersteller auf die Fahnen geschrieben, die klassische 3-Tier-Struktur der Netzwerke auf eine flache, zwei- oder idealerweise nur einstufige Fabric-Struktur zu reduzieren. Um diese Vereinfachung zu erreichen, werden in der Regel mehrere physikalische Switche zu einem einzigen logischen Gerät verbunden, das dann die Portdichte, Ausfallsicherheit und Performance eines ganzen LANs in einem virtuellen Gehäuse verbindet und dabei so einfach zu verwalten ist wie ein einzelner Switch. Auf diese Weise lässt sich die Anzahl der Systeme, Verbindungen und Tiers im Datacenter nachhaltig minimieren. Das senkt die Komplexität der gesamten Infrastruktur – und ermöglicht es, Ost-West-Traffic wesentlich effizienter zu transportieren.
Um unterschiedlichen Use Cases, Anforderungen und Unternehmensgrößen gerecht zu werden, bieten die meisten Hersteller in ihren Switching-Portfolios eine Reihe abgestufter Fabric-Architekturen, mit denen sich nahezu jedes Einsatzszenario abbilden lässt:
Die Einstiegslösung: Virtual Chassis
Ob Cisco, Brocade, Juniper Networks oder Extreme Networks: Stand heute bietet praktisch jeder Netzwerk-Hersteller eine eigenentwickelte Stacking- oder Virtual Chassis-Technologie, mit der sich eine überschaubare Zahl von Switchen über eine einheitliche Highspeed-Backplane zu einem logischen System bündeln lässt. Die vernetzten Switche agieren dann nach außen hin wie ein einziger großer Switch, der die Netzwerk-Tiers für Access und Aggregation nahtlos integriert und damit die Anzahl der Hops minimiert und somit auch eine geringe Latenz ermöglicht. So lassen sich beispielsweise mit dem Virtual Chassis von Juniper Networks bis zu zehn QFX5100-Switche mit je 48 10-GbE-Ports zu einem homogenen High-End-System mit 480 10-GbE-Ports bündeln. Alternativ können aber auch ältere EX-Modelle mit 1-GbE- und 10-GbE-Ports und leistungsfähige 40-GbE-QFX-Switche nach Belieben kombiniert werden, etwa um unterschiedlichen Anwendungsanforderungen Rechnung zu tragen.
Über die Performance-Optimierung hinaus bietet ein solches Virtual Chassis den Unternehmen auch im Hinblick auf die Zukunftssicherheit und Skalierbarkeit der Infrastruktur eine Reihe von Vorteilen. So lassen sich die logischen Systeme im Falle steigender Anforderungen einfach und flexibel erweitern, indem das virtuelle Gehäuse um zusätzliche Switche ergänzt wird, um die Portdichte zu erhöhen. Das funktioniert in der Regel selbst dann, wenn die neuen Systeme an einem ganz anderen Standort im Einsatz sind, sofern dieser mit einer Glasfaserverbindung erreichbar ist.
Im Hinblick auf den Betrieb und die Administration des Virtual Chassis verdienen drei Aspekte besondere Erwähnung: zum Ersten die hohe Verfügbarkeit des Systems, die dank automatisiertem Fail-Over, Nonstop-Software-Updates und Redundantem Routing oft bei annähernd 100 Prozent liegt. Zum Zweiten die Administrierbarkeit, die dank der Zusammenführung der Switche in einer Plattform vereinfacht wird – zumal die Netzwerkkomponenten dann in der Regel mit einer Administrationsoberfläche verwaltet werden. Und zum Dritten die aufgrund des geringeren Stromverbrauchs und der geringeren Stellfläche attraktiven laufenden Kosten der Infrastruktur.
Seite 1: Die Fabric prägt die Strategie
Seite 2: Virtual Chassis mit Leaf-Spine-Architektur
Seite 1 von 2 | Nächste Seite >> |
ln/Joern Kraus, Senior System Engineer bei Westcon Security