Bandbreitenoptimierung im WAN Weitverkehrsnetze effektiv nutzen

Lesezeit
6 Minuten
Bis jetzt gelesen

Bandbreitenoptimierung im WAN Weitverkehrsnetze effektiv nutzen

15.03.2007 - 16:15
Veröffentlicht in:

Wird die Bandbreite auf WAN-Verbindungen zwischen Standorten knapp, beschweren sich die Anwender über “langsame Anwendungen”. Eine Möglichkeit ist, mehr Bandbreite anzumieten. Alternativ lassen sich bestehende WAN-Strecken mit speziellen Verfahren optimieren. Dieser Beitrag erklärt, wie mit Hilfe von Datenreduktion, Datenpriorisierung, Datenbeschleunigung, Sequence Caching und dynamischer Pfadwahl Unternehmen ihre Weitverkehrsstrecken effektiver nutzen können.

Das Szenario ist nicht wirklich neu: Immer mehr Unternehmen übertragen ihre Daten über schmalbandige Mietleitungen oder DSL-Anschlüsse zwischen verschiedenen Standorten. Die Weitverkehrsverbindungen geraten dabei schnell an die Grenzen ihrer Leistungsfähigkeit. Die daraus resultierende Wahrnehmung von “langsamen Anwendungen” bringt die Anwender zur Verzweiflung. Alleine eine Aufstockung der physikalischen Kapazitäten der WAN-Links gibt dabei keine Garantie für konstant schnelleren Verkehr auf der Datenautobahn – die dadurch entstehenden Kosten mal völlig außer Acht gelassen. Neben einer chronisch zu geringen Bandbreite haben Systemadministratoren noch weiteren Optimierungsbedarf für ihre Weitverkehrsverbindungen: Probleme der Datenpriorisierung, der Latenzzeit oder der Pfadwahl bei mehreren zur Verfügung stehenden Verbindungen bedürfen verschiedener, logisch miteinander verknüpfter Lösungsansätze.

Um eine nachhaltige Erhöhung der Anwendungsperformance in Weitverkehrsnetzen zu erreichen, benötigen Unternehmen daher Lösungen, die in den bestehenden Leitungen Bandbreite freisetzen, geschäftskritischen Anwendungen die notwendige Transferrate zusichern, den Datenverkehr beschleunigen und selbstständig die jeweils optimale Verbindung auswählen.

Datenreduktion
Datenreduktionsverfahren wie beispielsweise die “Molecular Sequence Reduction- Technologie” (MSR) stellen fest, welche Daten in IP-Paketen wiederholt auftreten. Diese werden nach ihrer Identifizierung durch eine Hardwareappliance auf der Senderseite katalogisiert und durch Platzhalter ersetzt. Ein zweites, im Netz des Empfängers installiertes Gerät erkennt den Platzhalter und wandelt diesen ohne Informationsverlust wieder in das ursprüngliche Datenmuster um. Der Grad an Reduktion, der sich mit dieser auf Verfahren aus der DNA-Forschung basierenden Technologie erreichen lässt, hängt wesentlich von der Art der übermittelten Daten sowie vom Anwendungsoverhead ab. So lassen sich beispielsweise bei breitbandigen Webanwendungen mit sehr vielen sich wiederholenden grafischen Elementen Reduktionsraten von bis zu 90 Prozent erzielen.

Datenpriorisierung
Der Datentransfer von geschäftskritischen Applikationen wie beispielsweise SAP, Oracle oder Citrix gerät in Weitverkehrsnetzen häufig wegen Anwendungen geringerer Priorität wie FTP- oder HTTPSessions ins Stocken. Quality-of- Service-Verfahren (QoS) können hier Enterpriseapplikationen eine festgelegte Dienstgüte garantieren und so die erforderliche Übertragungskapazität sicherstellen. Die verschiedenen Anwendungen werden dabei gemäß ihrer Relevanz für die Geschäftsprozesse evaluiert, und es werden ihnen entsprechend mehr oder weniger Netzressourcen eingeräumt.Technisch gesehen bedarf es dazu einer Parametrisierung von Protokollen, die das Übertragungsverhalten für die jeweiligen Dienste festlegen. Eine QoS-Lösung bietet typischerweise Funktionen für die folgenden drei Anwendungsbereiche:
- Classification: Um bestimmte Datenpakete oder Anwendungen bevorzugt oder nachrangig behandeln können, müssen sie zunächst entsprechend ihrer Bedeutung klassifiziert werden. Eine Klassifizierung kann wahlweise nach den Applikationsmerkmalen, den konkreten geschäftlichen Anforderungen sowie den jeweiligen Benutzerbedürfnissen erfolgen.
- Marking: Je nach Art der Klassifizierung werden dann die Pakete im IPHeader verschiedenartig gekennzeichnet, so dass diese unterschieden und unterschiedlich priorisiert werden können. Diese Markierung erfolgt durch das Setzen von ToS/DiffServ-Werten (Type of Service/Differentiated Services).
- Queuing: Hier wird festgelegt, welche Applikationen wie behandelt werden und welche Bandbreite sie zugewiesen bekommen. Eine QoS-Lösung sollte in jedem Falle eine “Low Latency Queue” zur Verfügung stellen. Echtzeitapplikationen wie beispielsweise Voice over IP (VoIP), die durch Latenz in der Dienstqualität besonders beeinträchtigt würden, werden im Datennetz dann bevorzugt behandelt.

Die drei beschriebenen Funktionen sollten in jedem Fall unabhängig voneinander arbeiten können. Hat nämlich beispielsweise bereits ein WAN-Provider ein Queuing eingerichtet, um festgelegte SLAs (Service Level Agreements) einhalten zu können, werden hier nur noch Funktionen für Classification und Marking benötigt.

Für den effizienten Einsatz einer QoSLösung sind zudem weit reichende Monitoringfunktionen zwingend erforderlich. Nur so lassen sich die Auswirkungen der QoS-Regeln permanent überwachen und gegebenenfalls optimieren.Auch sollten QoS-Lösungen Assistentenprogramme, so genannte Wizards, integrieren, da QoS-Regeln häufig an neue Unternehmensgegebenheiten angepasst werden müssen. Hier erleichtern Wizards das Erstellen neuer Regeln erheblich. QoS bietet allerdings keine Lösung zur Gewinnung von mehr Bandbreite, sondern hilft lediglich bestehende Bandbreite effektiver zu nutzen. Besondere Vorteile erwachsen dagegen aus der kombinierten Anwendung von Reduktionsverfahren und QoS. Im ersten Schritt wird der Bandbreitenbedarf verringert. Im zweiten Schritt wird dafür gesorgt, dass unternehmenskritische Anwendungen garantierte Bandbreiten erhalten.


Datenbeschleunigung
Der maximale Datendurchsatz im TCP hängt von der Fenstergröße des Empfängers und der End-to-End-Latenzzeit ab. Die maximale Empfangsfenstergröße zeigt an, wie viel an Daten der Sender maximal schicken darf, bevor er vom Empfänger eine Empfangsbestätigung erhält. Bei höheren Latenzzeiten entstehen dann Übertragungspausen (TCP Idle Times), die zu stockender und damit langsamer Übertragung führen.

PFA (Packet Flow Acceleration) ist eine duale Beschleunigungstechnologie, die das Verhalten von TCP im WAN optimiert.Dabei werden die einschränkenden Auswirkungen von Latenzzeiten auf TCP-Flows minimiert, was zu einer deutlich höheren Anwendungsperformance führen kann.PFA setzt sich zusammen aus Fast Connection Setup, Flow Pipelining, Active Flow Pipelining und Fast Forward Error Correction:

Fast Connection Setup beschleunigt die Antwortzeiten bei Anwendungen mit zahlreichen, kurz aufeinander folgenden TCP-Sessions. Übertragungen im TCP funktionieren nach dem so genannten Handshakeprinzip. Zunächst stellt der Sender die Anfrage an einen Empfänger, ob er zur Datenaufnahme bereit ist.Wird dies in einem zweiten Schritt vom Empfänger bestätigt, kann der Sender die Daten schicken. Es bedarf also zunächst dieser drei Schritte der Sessioninitialisierung, bis der eigentliche Datentransfer startet. Besonders bei kurzen Sessions wird der TCP-Verbindungsaufbau durch die Übertragungsanfragen im WAN erheblich verlangsamt.

Beim Fast Connection Setup werden Verbindungsanfragen durch eine spezielle, jeweils auf der LAN-Seite der Router zwischen Client und Server geschaltete Appliance lokal bestätigt, so dass nicht die komplette Round Trip Time abgewartet werden muss, bevor das erste Datenpaket geschickt werden kann. Die WAN-Optimierungsappliance bestätigt lokal die Initialisierungsanfrage. Dadurch kann die eigentliche Datenübertragung ohne das Abwarten einer ganzen Round Trip Time über das WAN begonnen werden.Auf der Empfängerseite wird bei Erhalt des ersten Datenpakets die Verbindung lokal aufgebaut. Die weiteren Datenpakete laufen dann direkt zwischen den Endgeräten.Weil das Verfahren auf Standard-TCP aufsetzt, bleibt die TCPSession auch beim Ausfall einer Appliance bestehen.

Flow Pipelining wiederum beschleunigt die Übertragung großer Datenmengen. Das TCP-Fenster wird hier auf Seite des Empfängers derart ausgedehnt, dass dieser statt der in den meisten Betriebssystemen üblichen 16 KByte bis zu 64 KByte annehmen kann. Dies ermöglicht wiederum die WAN-Optimierungsappliance, die bei Bedarf die Fenstergröße des Empfängers überschreibt. So kann der Sender ein Mehrfaches an Daten übermitteln, bevor er eine Bestätigung vom Empfänger benötigt. Sollte der Empfänger aufgrund von temporärer Überlast nicht die gesamte Datenmenge entgegennehmen können, wird diese von der WANAppliance automatisch zwischengespeichert. Das Flow Pipelining wird nur angewendet, wenn aufgrund von WANLatenz TCP Idle Times auftreten und die WAN-Leitung noch Kapazitäten frei hat. Dies ist nur möglich, da die Appliances auf beiden Seiten des WANs laufend die aktuellen Round Trip Times sowie die Leitungsauslastung überwachen.TCP verfügt über keine eigenen Mechanismen, um die Ursache einer stockenden Übertragung zu erkennen. Da auch beim Flow Pipelining Standard-TCP verwendet wird, bleibt die TCP-Session selbst beim Ausfall einer Appliance bestehen,was die Packet Flow Acceleration klar von TCP-Spoofing- Lösungen unterscheidet.

Active Flow Pipelining erhöht hingegen die TCP-Performance durch lokales Terminieren der TCP-Verbindung und durch Einsatz eines effizienteren Transportprotokolls zwischen den eingesetzten WAN-Optimierungsappliances. Dabei werden auf der TCP-Senderseite von der WAN-Appliance so viele TCP-Pakete lokal bestätigt, dass entsprechend der definierten QoS-Regeln die verfügbare Bandbreite voll ausgenutzt wird. Die Übertragungsrate im WAN ist auf diese Weise sowohl für den Sender als auch für den Empfänger unabhängig von der TCPFenstergröße. Dies verbessert die Anwendungsperformance bei Verbindungen mit hoher Bandbreite oder hohen Latenzzeiten erheblich.TCP verwendet beim Start einer Session, aber auch bei Retransmissions, den so genannten Slow-Start-Mechanismus. Hier wird zunächst nur ein Paket gesendet und auf eine Bestätigung gewartet. Erst nach erfolgreicher Übermittlung werden dann die nachfolgenden Pakete bestätigt. Da sich TCP also schrittweise an die verfügbare Bandbreite herantastet, dauert es bei hohen Latenzzeiten mitunter sehr lange, bis die Übertragungsrate ihren Maximalwert erreicht. Bei Active Flow Pipelining werden die TCPPakete noch im LAN bei sehr kurzen Latenzzeiten bestätigt, was die Transferrate auch bei kurzen TCP-Sessions und bei Paketverlusten auf der Verbindung deutlich erhöht.

Forward Error Correction schließlich stellt verlorene Datenpakete wieder her und verbessert so die Performance bei Verbindungen mit hohen Paketverlusten (zum Beispiel bei Satellitenübertragungen). Dabei werden mit Hilfe von Recoverypaketen verlorene IP-Pakete wiederhergestellt und Retransmissions vermieden.

Sequence Caching
Mit der Network Sequence Mirroring- Technologie (NSM) lassen sich beispielsweise Backupprozesse über das WAN sehr zeiteffektiv abwickeln. Hier ist oft nur ein Bruchteil der zu speichernden Daten “neu” für das System, der Großteil an bekannten Daten kann also ausgefiltert werden. Selbst wenn Dateien leicht verändert wurden, erkennt NSM im Gegensatz zu klassischen Cachingverfahren die Unterschiede zur Ausgangsdatei.

Komplementär zur MSR-Technologie liest eine im LAN auf der Senderseite installierte Hardwareappliance den Datenstrom mit und speichert relevante Muster auf mehrere hundert GByte große integrierte Festplatten. Auf der Empfängerseite werden diese Platzhalter von einem identischen Gerät ohne Informationsverlust zum vollständigen Datenpaket rekonstruiert.

Während herkömmliche Cachingtechnologien Dateien oder HTTP-Frames nur in derselben Applikation als bereits bekannt identifizieren, spürt NSM Redundanzen bei einem Objekt komplett unabhängig von der Anwendung auf. Selbst Muster, die erst Wochen nach der ersten Übertragung erneut über das WAN verschickt werden, werden mithilfe von NSM anhand ihrer Signatur identifiziert, durch ein Label ersetzt und zur komplementären Appliance übertragen. Diese rekonstruiert aus dem Platzhalter das Originalmuster.

Dynamische Pfadwahl
Wenn Unternehmensniederlassungen ohne eigenen Server über das WAN auf zentral gehostete Anwendungen zugreifen, kommt es bei latenzempfindlichen Enterpriseanwendungen schnell zu Qualitätseinbußen. Die bestehenden WAN-Verbindungen müssen daher so eingesetzt werden, dass zentralen Anwendungen die maximal verfügbare Bandbreite im Weitverkehrsnetz zur Verfügung steht. Gerade wenn die Niederlassungen zusätzlich zu Standleitungen auch über ISDN- und DSL-Anschlüsse miteinander verbunden sind, bedarf es Richtlinien, welche Applikationen unter welchen Bedingungen über welche Verbindung laufen sollen. Mit der Policy-Based-Multipath- Technologie (PBM) können IT-Administratoren einfach und granular Parameter festlegen, denen entsprechend das System die optimale Verbindung auswählt. So kann beispielsweise eine Regel erstellt werden, dass beim Überschreiten der Latenzzeit auf der Satellitenverbindung von 500 ms über einen Zeitraum von fünf Minuten bestimmte Anwendungen auf die Frame-Relay- Verbindung umgeleitet werden.

Auch PBM bringt den größten Nutzen erst im kombinierten Einsatz mit QoS. Leitet PBM den Datenverkehr von einem WAN-Link auf einen anderen, lässt sich über QoS-Parameter genau festlegen, wie viel Bandbreite den “Stammapplikationen” auf dieser Leitung zusteht. PBM unterstützt außerdem die “sanfte” Migration von einer WAN-Technologie auf eine andere wie beispielsweise von Frame Relay zu MPLS (Multi Protocol Label Switching), wobei in der Übergangsphase die Applikationen schrittweise von der alten zur neuen Verbindung geschwenkt werden. Sobald die eingestellten Schwellenwerte für eine Applikation überschritten werden, wird der Verkehr wieder auf die alte Verbindung zurückgeleitet.

Fazit
Höhere Netzperformance ist nicht allein eine Frage von mehr physikalischer Bandbreite. Zwar lässt sich eine Straße immer noch breiter bauen, wenn man die entsprechenden Investitionen nicht scheut. Ohne ein durchdachtes Verkehrskonzept bietet das allein allerdings noch keine Garantie für freie Fahrt.Technologien für die WAN-Optimierung sind daher eine interessante Möglichkeit, bestehende WANVerbindungen effektiver zu nutzen.



Ausgabe 03/05 des IT-Administrator Magazin S. 56-59, Autoren: Thomas Weiss,Willi Dütsch
 

Ähnliche Beiträge

Netzwerkverwaltung an der Medizinischen Universität Wien

Die IT-Abteilung der Medizinischen Universität Wien betreibt das Netzwerk der Universität, wozu die Betreuung von rund 10.000 Anschlüssen sowie Hunderten Endgeräten und Servern gehört. Für diese Aufgabe wurde eine neue Informations- und Planungssoftware für Kabelmanagement und Netzwerkdokumentation implementiert. Das neue Werkzeug ist flexibel, skalierbar und deckt die steigenden Sicherheitsanforderungen voll ab.

Zero-Touch-Provisionierung von aktiven Netzwerkkomponenten (3)

Zero-Touch-Provisionierungsprozesse sind im Rollout von Client-PCs und Servern bereits lange Zeit Standard. Im Gegensatz dazu kommen diese Prozesse bei aktiven Netzwerkkomponenten wie Routern und Switches nur selten zum Einsatz. Im dritten und letzten Teil gehen wir auf weitere Varianten ein, etwa die ZTP-Provisionierung ohne proprietären Server, die Boot-Loader-Variante iPXE oder das alte Verfahren AutoInstall.

Zero-Touch-Provisionierung von aktiven Netzwerkkomponenten (2)

Zero-Touch-Provisionierungsprozesse sind im Rollout von Client-PCs und Servern bereits lange Zeit Standard. Im Gegensatz dazu kommen diese Prozesse bei aktiven Netzwerkkomponenten wie Routern und Switches nur selten zum Einsatz. Im zweiten Teil der Workshopserie schildern wir den proprietären Cisco-Ansatz "Network-Plug-and-Play", der über eine GUI erfolgt und bei dem sich die ausgerollten Komponenten an die Gegebenheiten im Netzwerk anpassen lassen.