Checkliste für Netzwerk-Stresstests (1)

Lesezeit
3 Minuten
Bis jetzt gelesen

Checkliste für Netzwerk-Stresstests (1)

12.08.2013 - 00:00
Veröffentlicht in:

Skalierbarkeit ist heute eine der wichtigsten Eigenschaften einer IT-Infrastruktur. Sie verspricht etwa, die Verfügbarkeit von Applikationen und Diensten auch bei einem deutlichen Zuwachs an Netzwerkverkehr sicherzustellen. Doch herauszufinden, wie skalierbar das eigene Netz ist oder einfach nur zu erfahren, wo im Falle einer hohen Belastung der Flaschenhals sitzt, ist äußerst komplex. In der Praxis nutzen IT-Verantwortliche dazu Stresstests, die durch Werkzeuge unterstützt werden, die eine künstliche Last im LAN erzeugen. Doch allein damit, unglaublich große Mengen an Bits und Bytes in die Leitungen zu pumpen, ist es nicht getan, denn die Ergebnisse solcher Tests sind nur in Verbindung mit den richtigen organisatorischen Maßnahmen im Umfeld wirklich aussagekräftig. Dieser Artikel zeigt auf, wie Sie Stress- und Lasttests im Netz durchführen.

Administratoren benötigen viel Erfahrung und ein gesundes Wissen um die Netzwerkfunktionen, um mit Stresstestwerkzeugen im Netzwerk richtig umzugehen. Vor dem Kauf eines entsprechenden Werkzeugs oder Testers sollten Sie sich darüber im Klaren sein, welche Funktionen Sie benötigen: Soll das Gerät als reiner Lastgenerator agieren oder wollen Sie nur VoIP-Funktionen testen? Der Markt der Stresstestwerkzeuge ist relativ übersichtlich, zu den Marktführern gehören: BreakingPoint, Mu Dynamix, Spirent,Veriwave, Nextragen und Ixia.

Überlegen Sie, wie oft und wo Sie diese Werkzeuge nutzen werden. Diese Geräte sind je nach Hersteller sehr teuer. Mit dem Kauf ist jedoch nur ein Teil der Investition abgeschlossen, die Geräte müssen auch ordnungsgemäß bedient werden.

Die in den Messwerkzeugen enthaltenen Funktionen beinhalten alle Konzepte, Aktivitäten und Abläufe, die darauf abzielen, die in einem Unternehmen zur Verfügung stehenden IT-Einrichtungen unter gegebenen Rahmenbedingungen bestmöglich zu nutzen und die in Zukunft erforderlichen Kapazitäten von IT-Komponenten bedarfsgerecht und wirtschaftlich zu planen.

Kaufen Sie kein Gerät, das Sie nicht unterhalten können. Wenn Ihr Unternehmen nicht bereit ist, auch gleichzeitig in die notwendige Laborausstattung und das entsprechende Personal zu investieren, dann ist es im Regelfall besser, ein solches Gerät inklusive des notwendigen Personals zu mieten.

Methoden und Ziele eines Stresstest
Die Stresstestwerkzeuge stellen die Basis für eine erfolgreiche Systemintegration und arbeiten nach dieser Methode:
 

  • Identifizierung der Geschäftsprozesse des Unternehmens
  • Beschreibung der Geschäftsprozess-Performance-Ziele
  • Abbildung von Geschäftsprozessen auf die erforderlichen IT-Prozesse
  • Definition der relevanten Anforderungen der Anwender
  • Planung und Bestimmung der benötigten IT-Komponenten
  • Überwachung und Steuerung des laufenden Betriebs
  • Analyse und Tuning

Dieser Ansatz zielt darauf ab, durch geeignete Beschreibung und Bewertung der verschiedenen Einzelbestandteile aus einer ganzheitlichen Sicht das Gesamtsystemverhalten zu verbessern. Im Idealfall umfasst dieser permanente Prozess die Phasen Planung, Ausschreibung, Angebot, Realisierung, Abnahme sowie Betrieb und trägt wesentlich zur Erreichung folgender Unternehmensziele bei:
 

  • Planungs- und Investitionssicherheit
  • Gesicherter IT-Betrieb und optimale Ressourcen-Nutzung
  • Verbesserte Wirtschaftlichkeit bedingt durch Kostenreduktion des IT-Betriebs und durch Verbesserung des IT-Leistungsangebotes

Qualität, Verfügbarkeit, Skalierbarkeit
Daneben kann dieses Vorgehen als Basis für eine Kostenzuordnung nach dem Verursacherprinzip dienen (Kostentransparenz). Dies führt schließlich zur Produktivitätssteigerung und zur Verbesserung der Wettbewerbsfähigkeit. Das Leistungsmanagement verfolgt die Ziele, die Qualitätsanforderungen dem Kunden gegenüber zu garantieren und gleichzeitig die Qualität der angebotenen Dienste zu steigern.

Die Qualität bezieht sich dabei auf die Aspekte Performance, Verfügbarkeit und Skalierbarkeit. Analysen in Rechnerumgebungen zeigen, dass zu hohe Antwortzeiten oder gar Ausfälle im produktiven Betrieb in beinahe hundert Prozent aller Fälle auf ein Verfügbarkeitsproblem zurückzuführen sind. Dieses kann beispielsweise aus einer Überlast resultieren, welche ihrerseits aus einem schlechten Software-Design oder Fehlern bei der Implementation hervorgehen. Als Folge davon können sich die Antwortzeiten erhöhen. Sind keine redundanten Komponenten vorhanden, können die Requests nicht mehr beantwortet werden, was einem Ausfall gleichkommt. Eine Antwortzeitmessung ergibt folglich ungewöhnlich hohe beziehungsweise gar keine Antwortzeiten, falls ein Request gar nicht mehr beantwortet wird.

Dieses Performance-Problem ist aber letztlich nur ein Symptom dafür, dass im System etwas nicht in Ordnung ist. Viele Verfügbarkeitsprobleme ihrerseits haben ihre Ursache oft in einer ungenügenden Skalierbarkeit. Die Überlastung eines Applikations-Servers beispielsweise äußert sich auf technischer Ebene darin, dass dem Server die Ressourcen ausgehen und deshalb keine Requests mehr beantwortet werden können. Der Server ist folglich zumindest temporär nicht mehr verfügbar. In diesem Beispiel ist die mangelnde Skalierbarkeit einer Komponente somit der Verursacher des Verfügbarkeitsproblems. Hätte der Server zusätzliche Kapazitäten zur Verfügung, wäre das Problem womöglich nicht aufgetreten.

Leistungsprobleme sind im Betrieb meist auf ein Verfügbarkeitsproblem in einzelnen Komponenten zurückzuführen, wobei die Ursachen in der Regel im Zusammenspiel der an dem Gesamtsystem beteiligten Einzelkomponenten zu suchen sind. Die in der Praxis auftretenden partiellen Fehler zeigen sich meist situativ. Das heißt, es handelt sich nicht um systematische Fehler, die bei jeder Ausführung eines Programm-Codes auftreten, sondern erst dann eintreten, wenn ein bestimmter Systemzustand erreicht ist – beispielsweise wenn zu viel Last vorhanden ist. Einflussparameter wie die Anzahl gleichzeitiger Benutzer sind aber nur bedingt durch den Administrator beeinflussbar.

Organisatorische Anforderungen
IT-Landschaften werden zunehmend komplexer und müssen immer vielfältigeren Ansprüchen genügen. Darüber hinaus unterliegen sie einem Strukturwandel. Zentrale, umlagenfinanzierte Strukturen innerhalb eines Unternehmens werden abgelöst durch selbständige IT-Bereiche. Vielfach werden durch Outsourcing ganze IT-Bereiche zu neuen Provider-Firmen, die an einer verursachergerechten Abrechnung ihrer erbrachten Leistung interessiert sind. Auf der anderen Seite verlangen die Anwender dieser Provider eine genaue und beweisbare Aufstellung der ihnen in Rechnung gestellten Leistungen.



 

                                                Seite 1 von 2                     Nächste Seite>>






Mathias Hein/jp/ln