Fachartikel

Seite 2 - Verkehrsmonitoring in geswitchten Netzumgebungen (2)

Das Netzwerk unter Stress setzen
Ein erprobtes Verfahren, um die Belastbarkeit des eigenen Netzwerks auf die Probe zu stellen, sind Stresstests. Um mit Stresstestwerkzeugen richtig umzugehen, benötigt der Tester viel Erfahrung und ein gesundes Wissen um die Netzwerkfunktionen. Vor dem Kauf eines entsprechenden Werkzeugs sollten Sie sich darüber im Klaren sein, welche Funktionen Sie wirklich benötigen: Soll das Gerät etwa als reiner Lastgenerator agieren oder sollen nur VoIP-Funktionen getestet werden. Überlegen Sie auch, wie oft und wo Sie diese Werkzeuge nutzen werden. Diese Geräte sind je nach Hersteller sehr teuer. Ist Ihr Unternehmen nicht bereit, auch gleichzeitig in eine notwendige Laborausstattung und das entsprechende Personal zu investieren, ist es womöglich besser, ein solches Gerät inklusive des notwendigen Personals zu mieten.

Die Stresstestwerkzeuge stellen die Basis für eine erfolgreiche Systemintegration dar und verfolgen dabei folgende methodischen Ansätze:

  • Identifizieren der Geschäftsprozesse des Unternehmens
  • Beschreiben der Geschäftsprozess-Performance-Ziele
  • Abbilden von Geschäftsprozessen auf die erforderlichen IT-Prozesse
  • Definieren der relevanten Anforderungen der Anwender
  • Planen und bestimmen der benötigten IT-Komponenten
  • Überwachen und steuern des laufenden Betriebs
  • Analyse und Tuning
Die Stresstestwerkzeuge zielen darauf ab, durch geeignete Beschreibung und Bewertung der verschiedenen Einzelbestandteile aus einer ganzheitlichen Sicht das Gesamtsystemverhalten zu verbessern. Im Idealfall umfasst dieser Prozess die Phasen Planung, Ausschreibung, Angebot, Realisierung, Abnahme und Betrieb und trägt wesentlich zur Erreichung folgender Unternehmensziele bei:

  • Planungs- und Investitionssicherheit
  • Gesicherter IT-Betrieb und optimale Ressourcen-Nutzung
  • Verbesserte Wirtschaftlichkeit bedingt durch Kostenreduktion des IT-Betriebs und durch Verbesserung des IT-Leistungsangebotes
Daneben kann es als Basis für eine Kostenzuordnung nach dem Verursacherprinzip dienen (Kostentransparenz).
Überlast als Ausfallursache
Analysen in Rechnerumgebungen zeigen, dass zu hohe Antwortzeiten oder gar Ausfälle im produktiven Betrieb in beinahe hundert Prozent aller Fälle auf ein Verfügbarkeitsproblem zurückzuführen sind. Dieses kann beispielsweise aus einer Überlast resultieren, die ihrerseits aus einem schlechten Software-Design oder Fehlern bei der Implementierung hervorgehen können. Als Folge davon erhöhen sich die Antwortzeiten. Sind keine redundanten Komponenten vorhanden, können die Requests nicht mehr beantwortet werden, was einem Ausfall gleichkommt. Eine Antwortzeitmessung ergibt folglich ungewöhnlich hohe beziehungsweise gar keine Antwortzeiten, falls ein Request gar nicht mehr beantwortet wird.

Dieses Performance-Problem ist aber letztlich nur ein Symptom dafür, dass im System etwas nicht in Ordnung ist. Viele Verfügbarkeitsprobleme finden ihre Ursache häufig in einer ungenügenden Skalierbarkeit. Die Überlastung eines Applikationsservers beispielsweise äußert sich auf technischer Ebene darin, dass dem Server die Ressourcen ausgehen und deshalb keine Anfragen mehr beantwortet werden können. Der Applikationsserver ist folglich zumindest temporär nicht mehr verfügbar. In diesem Beispiel ist die mangelnde Skalierbarkeit einer Komponente somit der Verursacher des Verfügbarkeitsproblems.

Leistungsengpässe sind im Betrieb meist auf ein Verfügbarkeitsproblem in einzelnen Komponenten zurückzuführen, wobei die Ursachen oft im Zusammenspiel der beteiligten Einzelkomponenten zu suchen sind. Die in der Praxis auftretenden partiellen Fehler treten meist situativ auf. Das heißt, es handelt sich nicht um systematische Fehler, die bei jeder Ausführung eines Programms auftreten, sondern erst dann, wenn ein bestimmter Systemzustand erreicht ist – beispielsweise bei zu hoher Last. Einflussparameter wie die Anzahl gleichzeitiger Benutzer sind aber nur bedingt beeinflussbar.

Steigende Anforderungen an die IT
IT-Landschaften werden zunehmend komplexer und müssen immer vielfältigeren Ansprüchen genügen. Darüber hinaus unterliegen sie einem Strukturwandel. Zentrale, umlagefinanzierte Strukturen innerhalb eines Unternehmens werden abgelöst durch selbständige IT-Bereiche. Vielfach landen durch Outsourcing ganze IT-Bereiche bei Service Providern, die an einer verursachergerechten Abrechnung ihrer erbrachten Leistung interessiert sind. Auf der anderen Seite verlangen die Kunden dieser Provider eine genaue und beweisbare Aufstellung der ihnen in Rechnung gestellten Leistung. Der Umgang mit dieser Situation erfordert strategisches und systematisches Denken und Handeln. An erster Stelle muss bei Managern und Planern das Bewusstsein geschaffen werden, dass

  • nur effiziente IT-Prozesse eine adäquate Unterstützung der Geschäftsprozesse eines Unternehmens ermöglichen,
  • das Verhalten der beteiligten IT-Komponenten und das Anwenderverhalten miteinander in Wechselwirkung stehen,
  • es sich bei IT-Systemen um lebendige Systeme mit wechselnden Anforderungen handelt, die im laufenden Betrieb permanent anhand gültiger Kriterien überwacht, analysiert und bewertet und die für zukünftige Anforderungen geplant werden müssen,
  • die Aufrüstung mit schnelleren Rechnern oder mehr Netzbandbreite die prinzipiellen Architektur- und Designprobleme komplexer Anwendungen nicht dauerhaft löst,
  • Kapazitätsmanagement ein wesentlicher Bestandteil der Systemplanung ist.
Eine Grundvoraussetzung für erfolgreiche IT-Dienste bilden Service Level Agreements (SLAs). Diese Vereinbarungen sind auf unterschiedlichen Ebenen erforderlich. Dabei kommt der Erfassung der Geschäftsprozesse eine zentrale Bedeutung zu. Deren Nutzen bestimmt indirekt den Aufwand, den das IT-Management kosten darf. Eng verknüpft damit ist die adäquate Beschreibung der IT-Prozesse. Adäquat heißt hier, dass sowohl zeitliche als auch räumliche Beziehungen zu den Geschäftsprozessen erkennbar sein müssen. IT-Prozesse erbringen IT-Dienste zur Unterstützung der Geschäftsprozesse. Die Dienste wiederum erbringen sie mit Hilfe von IT-Komponenten. Durch dedizierte Zuordnungen zwischen den Ebenen Geschäftsprozesse, IT-Prozesse und IT-Komponenten lassen sich Messergebnisse auf Ebene der IT-Komponenten in Ergebnisse für die IT-Prozesse und letztlich für die Geschäftsprozesse transformieren. Andererseits lassen sich Dienstgüteanforderungen auf Geschäftsprozessebene entsprechend auf die IT-Prozessebene und, wo dies nötig ist, auch auf die IT-Komponenten übertragen.

Unabhängig von der Ebene lassen sich grundlegende Bedingungen für SLAs formulieren. Vereinbarte Werte müssen messtechnisch erfassbar, im laufenden Betrieb überprüfbar und von allen als realistisch akzeptiert sein. Zu jeder Dienstgütevereinbarung gehört auch eine Lastvereinbarung. Damit verpflichtet sich der IT-Anwender zur Einhaltung der festgelegten Belastung. Sind ausreichende Reservekapazitäten vorhanden, können kurzfristige Überschreitungen zugelassen werden. In diesem Fall sind entweder erhöhte Kosten zu tragen oder eine Absenkung von Performance-Werten zu dulden. SLAs werden für die Kategorien Verfügbarkeit, Zuverlässigkeit, Performance geschlossen. Ist die Definition von Performance-Maßen nicht einheitlich, müssen gegebenenfalls die Messpunkte und Messverfahren mit in die Vereinbarung aufgenommen werden. Die SLAs legen die Zielgrößen für die Planung neuer und die Überwachung existierender IT- Systeme fest.

Für den laufenden Geschäftsbetrieb ist es notwendig, das Verhalten der beteiligten Systeme/Systemkomponenten durch ein umfassendes Monitoring überwachen zu können. Die zum System gehörenden Komponenten werden hinsichtlich Verfügbarkeit, Zuverlässigkeit, Auslastung, Verweilzeiten und Funktionsaufrufe anhand der vereinbarten Dienstgüte überwacht. Die Anwendungen werden in Bezug auf Antwortzeitverhalten, Durchsatz, Ressourcenbedarf und Auftrittshäufigkeiten überwacht.

Seite 1: NetFlow-Architektur und -Paketstrukturen
Seite 2: Überlast als Ausfallursache

Im ersten Teil drehte sich alles um sFlow und NetFlow. Im zweiten Teil haben wir uns dann angesehen, inwieweit Überlast zu Netzwerkausfällen führen kann. Der dritte Teil erklärt, warum es wichtig ist, die Anforderungen des eigenen IT-Betriebs genau zu kennen. Und im vierten Teil gehen wir schließlich auf die Vermeidung von Flaschenhälsen und die Integration einer Netzwerkvisualisierung ein.

<< Vorherige Seite Seite 2 von 2
11.12.2017/dr/ln/Mathias Hein

Nachrichten

Netzwerkfehler schnell auffinden [22.06.2020]

Allegro Packets erweitert seine Produktfamilie der Network Multimeter für die Fehlersuche und Netzwerkanalyse mit den Modellen "1330", "3300" und "5300". Die x300-Serie verspricht hohe Leistung, die beim Allegro 5300 eine Analyserate von bis zu 100 GBit/s ermöglichen sollen. [mehr]

Kleiner WLAN-Administrator [9.04.2020]

D-Link bringt den "Nuclias Connect Hub DNH-100" auf den Markt. Der Netzwerk-Controller ist mit der mandantenfähigen Nuclias-Connect-Software ausgestattet. Mit Hilfe des rund 500 Gramm leichten DNH-100 lassen sich kleine bis mittlere WLAN-Umgebungen zentral administrieren. [mehr]

Besser im Blick [18.10.2019]

Tipps & Tools

Vorschau Januar 2020: LAN, WAN & SDN [16.12.2019]

Die Netzwerkinfrastruktur gehört wahrscheinlich nicht zu den heißesten Themen im IT-Bereich, nimmt jedoch einen enormen Stellenwert für Administratoren ein. Denn ohne stabile Grundlage kommt es schnell zu Engpässen im Datendurchsatz und Ausfällen von Applikationen. IT-Administrator startet das neue Jahr deshalb mit dem Schwerpunkt "LAN, WAN & SDN". Darin zeigen wir unter anderem, wie Sie Netzwerkgeräte mit rConfig, Jinja2 und Netdisco verwalten. Außerdem lesen Sie, wie Sie Anmeldungen mit dem Microsoft Network Policy Server unter Kontrolle behalten. In den Tests werfen wir einen Blick auf die NetBrain Integrated Edition 8.0. [mehr]

Fernzugriff auf PRTG Core Server [24.11.2019]

PRTG Network Monitor wird in vielen Unternehmen für das Monitoring der IT-Infrastruktur verwendet. Nicht selten kommt die Frage auf, wie der Zugriff auf den PRTG Core Server auch von außerhalb des Unternehmensnetzwerks möglich ist. Was der Admin hier beachten muss und welche Vorkehrungen wichtig sind, um Zugriffe durch unautorisierte Dritte zu verhindern, zeigt dieser Tipp. [mehr]

Buchbesprechung

Microsoft Office 365

von Markus Widl

Anzeigen