Webseiten-Performance proaktiv sichern

Lesezeit
3 Minuten
Bis jetzt gelesen

Webseiten-Performance proaktiv sichern

20.09.2017 - 14:00
Veröffentlicht in:
Bei vielen Unternehmen hängt die Existenz unmittelbar von einer performanten und verfügbaren Webseite ab. Aber selbst wenn der Internet-Auftritt keine absolut zentrale Bedeutung hat: Kaum eine Organisation kann sich heute noch lange Antwortzeiten oder gar Ausfälle seiner Webpräsenz leisten, ohne ernsthafte Verluste zu riskieren. Der Online-Fachartikel erklärt, warum die Überwachung über das reine Webseiten-Monitoring hinausgehen muss und die gesamte IT-Infrastruktur einbeziehen sollte.
Die Lösung gegen lange Antwortzeiten scheint einfach – und ist es doch nicht. Denn die einfache Lösung wäre ein Performance-Monitoring der Web-Applikation. Es erkennt Störungen und analysiert deren Ursache auf Quellcode-Ebene, sodass die zuständigen DevOps das Problem beseitigen können. Dabei werden allerdings nur applikationsimmanente Fehler berücksichtigt, zahlreiche äußere Faktoren wie Hardware, Traffic oder Verbindungsprobleme, die ebenfalls massiven Einfluss auf Performance und Erreichbarkeit eines Web-Auftritts haben, werden außer Acht gelassen. Ein weiteres Problem liegt in der reaktiven Natur der Webseitenüberwachung.

Wirkung und Ursache
Beim klassischen Webseiten-Monitoring wird der Administrator zuerst mit der Wirkung konfrontiert und muss dann die Ursache für das Problem herausfinden und beheben. Der eigentliche Kausalzusammenhang zwischen Ursache und Wirkung wird umgedreht, es wird zunächst die Wirkung abgewartet und dann die Ursache gesucht:
  1. Alarm: "Die Webseite ist nicht erreichbar oder reagiert zu langsam!"
  2. Recherche: "Was sind die Ursachen für die Störung und wie kann ich sie beseitigen?"
Was aber tun, wenn sich die Ursache nicht so einfach herausfinden und das Problem sich daher nicht schnell beheben lässt? Oder lässt sich die Reihenfolge gar umdrehen und die Ursache vor die Wirkung stellen; lassen sich also entstehende Ursachen für Probleme rechtzeitig erkennen und die Folgen proaktiv vermeiden? Aber gehen wir das Ganze der Reihe nach an und definieren erst einmal ein paar Eckwerte.

Eine Sekunde als Grenzwert für Aufmerksamkeit
Jakob Nielsen hat schon 1993 drei Grenzen bei der menschlichen Aufmerksamkeitsspanne als maßgeblich für die Reaktionszeit einer Webseite definiert:
  1. Bis zu 0,1 Sekunden Verzögerung werden vom Nutzer nicht wahrgenommen,
  2. bis zu eine Sekunde wird zwar als Verzögerung wahrgenommen, unterbricht aber noch nicht die Aufmerksamkeit des Nutzers,
  3. bis zu zehn Sekunden unterbrechen die Aufmerksamkeit, führen aber noch nicht unbedingt zum Abbruch der Aktion (des Wartens).
In Zeiten von Glasfasernetzen und einer deutlich verkürzten Aufmerksamkeitsspanne noch unter Goldfischniveau dürften die zehn Sekunden Wartezeit für das Laden einer Webseite schon sehr optimistisch sein: Viele Experten sehen die maximal vertretbare Ladezeit bei ein bis zwei Sekunden. Wird diese überschritten, steigt das Risiko, dass der Nutzer abbricht, mit jeder Sekunde weiter an. Allerdings spielt nicht nur die Ladezeit beim Aufrufen eines Web-Auftritts eine wichtige Rolle bei der Nutzererfahrung: Sobald der Besucher auf der Seite eine Aktion ausführt und etwa einen Kaufprozess durchführen oder sich anmelden will und dabei unverhältnismäßig lang warten muss, wird auch sein Vertrauen in die allgemeine Zuverlässigkeit des Webseitenbetreibers leiden.

Gerade bei Webshops spielt die möglichst verzögerungsfreie Abwicklung eine große Rolle. Längeres Warten auf Bestätigung führt hier schnell zum Abbruch durch den Kunden, der um sein Geld fürchtet. Der Shop verliert das Vertrauen des Kunden, und im schlimmsten Fall spricht sich das auch noch herum. Was also tun, um die bestmögliche Antwortzeit des Internet-Auftritts sicherzustellen und die Besucher desselben glücklich zu machen? Natürlich ist das klassische Monitoring der Webseite als Rückversicherung nach wie vor unumgänglich.

Die Webseite im Blick
Überspringen wir einmal das einfache Webseiten-Monitoring aus den Anfängen des Internets, wo ein Ping auf die Webseite deren Reaktionszeit misst (was nach wie vor wichtig ist). Die reine Reaktionszeit einer Webseite sagt nicht unbedingt etwas über die Nutzererfahrung aus: Schließlich kann sich nach dem ersten Ping das Laden der eigentlichen Seite noch gefühlt ewig hinziehen.


Bild 1: Ein Monitoring-Tool wie PRTG liefert im Idealfall eine Übersicht über alle Anwendungen,
ihren aktuellen Status und die Auslastung.


Zeitgemäße Tools zum Webseiten-Monitoring überwachen daher weit mehr als nur die reine Reaktionszeit: Sie messen beispielsweise die Ladezeit des Quellcodes oder auch der kompletten Webseite inklusive aller Inhalte. Über Skripte werden Anmeldevorgänge oder Kaufprozesse simuliert und die Reaktionszeiten gemessen. Andere Skripte können einzelne Werte aus einer Webseite auslesen und überprüfen. Dazu können diese Tools auch die unterschiedlichen Webserver überwachen.

Agiert das Unternehmen international, kommt noch eine ganz andere Herausforderung dazu: Wird der Webserver in Deutschland betrieben und ist er aus Deutschland ohne Verzögerung erreichbar, heißt das noch lange nicht, dass Kunden aus den USA oder Asien ebenfalls schnellen Zugriff haben. In diesem Fall muss die Monitoring-Lösung das Überwachen der Webseite von weltweit verteilten Standorten aus ermöglichen. All das liefert dem Administrator aber in der Regel nur die Information, dass etwas nicht in Ordnung ist. Warum das so ist, erfährt er nicht.

Seite 1: Die Webseite im Blick
Seite 2: Probleme schon im Entstehen vermeiden


Seite 1 von 2 Nächste Seite >>


ln/Sebastian Krüger, Partner Account Manager bei der Paessler AG

Ähnliche Beiträge

Netzwerkverwaltung an der Medizinischen Universität Wien

Die IT-Abteilung der Medizinischen Universität Wien betreibt das Netzwerk der Universität, wozu die Betreuung von rund 10.000 Anschlüssen sowie Hunderten Endgeräten und Servern gehört. Für diese Aufgabe wurde eine neue Informations- und Planungssoftware für Kabelmanagement und Netzwerkdokumentation implementiert. Das neue Werkzeug ist flexibel, skalierbar und deckt die steigenden Sicherheitsanforderungen voll ab.

Zero-Touch-Provisionierung von aktiven Netzwerkkomponenten (3)

Zero-Touch-Provisionierungsprozesse sind im Rollout von Client-PCs und Servern bereits lange Zeit Standard. Im Gegensatz dazu kommen diese Prozesse bei aktiven Netzwerkkomponenten wie Routern und Switches nur selten zum Einsatz. Im dritten und letzten Teil gehen wir auf weitere Varianten ein, etwa die ZTP-Provisionierung ohne proprietären Server, die Boot-Loader-Variante iPXE oder das alte Verfahren AutoInstall.

Zero-Touch-Provisionierung von aktiven Netzwerkkomponenten (2)

Zero-Touch-Provisionierungsprozesse sind im Rollout von Client-PCs und Servern bereits lange Zeit Standard. Im Gegensatz dazu kommen diese Prozesse bei aktiven Netzwerkkomponenten wie Routern und Switches nur selten zum Einsatz. Im zweiten Teil der Workshopserie schildern wir den proprietären Cisco-Ansatz "Network-Plug-and-Play", der über eine GUI erfolgt und bei dem sich die ausgerollten Komponenten an die Gegebenheiten im Netzwerk anpassen lassen.