Fachartikel

Webseiten-Performance proaktiv sichern

Bei vielen Unternehmen hängt die Existenz unmittelbar von einer performanten und verfügbaren Webseite ab. Aber selbst wenn der Internet-Auftritt keine absolut zentrale Bedeutung hat: Kaum eine Organisation kann sich heute noch lange Antwortzeiten oder gar Ausfälle seiner Webpräsenz leisten, ohne ernsthafte Verluste zu riskieren. Der Online-Fachartikel erklärt, warum die Überwachung über das reine Webseiten-Monitoring hinausgehen muss und die gesamte IT-Infrastruktur einbeziehen sollte.
Dass das Monitoring der Webseiten-Performance mehr als nur ein Ping ist, zeigt diese Map aus PRTG Network Monitor.
Die Lösung gegen lange Antwortzeiten scheint einfach – und ist es doch nicht. Denn die einfache Lösung wäre ein Performance-Monitoring der Web-Applikation. Es erkennt Störungen und analysiert deren Ursache auf Quellcode-Ebene, sodass die zuständigen DevOps das Problem beseitigen können. Dabei werden allerdings nur applikationsimmanente Fehler berücksichtigt, zahlreiche äußere Faktoren wie Hardware, Traffic oder Verbindungsprobleme, die ebenfalls massiven Einfluss auf Performance und Erreichbarkeit eines Web-Auftritts haben, werden außer Acht gelassen. Ein weiteres Problem liegt in der reaktiven Natur der Webseitenüberwachung.

Wirkung und Ursache
Beim klassischen Webseiten-Monitoring wird der Administrator zuerst mit der Wirkung konfrontiert und muss dann die Ursache für das Problem herausfinden und beheben. Der eigentliche Kausalzusammenhang zwischen Ursache und Wirkung wird umgedreht, es wird zunächst die Wirkung abgewartet und dann die Ursache gesucht:
  1. Alarm: "Die Webseite ist nicht erreichbar oder reagiert zu langsam!"
  2. Recherche: "Was sind die Ursachen für die Störung und wie kann ich sie beseitigen?"
Was aber tun, wenn sich die Ursache nicht so einfach herausfinden und das Problem sich daher nicht schnell beheben lässt? Oder lässt sich die Reihenfolge gar umdrehen und die Ursache vor die Wirkung stellen; lassen sich also entstehende Ursachen für Probleme rechtzeitig erkennen und die Folgen proaktiv vermeiden? Aber gehen wir das Ganze der Reihe nach an und definieren erst einmal ein paar Eckwerte.
Eine Sekunde als Grenzwert für Aufmerksamkeit
Jakob Nielsen hat schon 1993 drei Grenzen bei der menschlichen Aufmerksamkeitsspanne als maßgeblich für die Reaktionszeit einer Webseite definiert:
  1. Bis zu 0,1 Sekunden Verzögerung werden vom Nutzer nicht wahrgenommen,
  2. bis zu eine Sekunde wird zwar als Verzögerung wahrgenommen, unterbricht aber noch nicht die Aufmerksamkeit des Nutzers,
  3. bis zu zehn Sekunden unterbrechen die Aufmerksamkeit, führen aber noch nicht unbedingt zum Abbruch der Aktion (des Wartens).
In Zeiten von Glasfasernetzen und einer deutlich verkürzten Aufmerksamkeitsspanne noch unter Goldfischniveau dürften die zehn Sekunden Wartezeit für das Laden einer Webseite schon sehr optimistisch sein: Viele Experten sehen die maximal vertretbare Ladezeit bei ein bis zwei Sekunden. Wird diese überschritten, steigt das Risiko, dass der Nutzer abbricht, mit jeder Sekunde weiter an. Allerdings spielt nicht nur die Ladezeit beim Aufrufen eines Web-Auftritts eine wichtige Rolle bei der Nutzererfahrung: Sobald der Besucher auf der Seite eine Aktion ausführt und etwa einen Kaufprozess durchführen oder sich anmelden will und dabei unverhältnismäßig lang warten muss, wird auch sein Vertrauen in die allgemeine Zuverlässigkeit des Webseitenbetreibers leiden.

Gerade bei Webshops spielt die möglichst verzögerungsfreie Abwicklung eine große Rolle. Längeres Warten auf Bestätigung führt hier schnell zum Abbruch durch den Kunden, der um sein Geld fürchtet. Der Shop verliert das Vertrauen des Kunden, und im schlimmsten Fall spricht sich das auch noch herum. Was also tun, um die bestmögliche Antwortzeit des Internet-Auftritts sicherzustellen und die Besucher desselben glücklich zu machen? Natürlich ist das klassische Monitoring der Webseite als Rückversicherung nach wie vor unumgänglich.

Die Webseite im Blick
Überspringen wir einmal das einfache Webseiten-Monitoring aus den Anfängen des Internets, wo ein Ping auf die Webseite deren Reaktionszeit misst (was nach wie vor wichtig ist). Die reine Reaktionszeit einer Webseite sagt nicht unbedingt etwas über die Nutzererfahrung aus: Schließlich kann sich nach dem ersten Ping das Laden der eigentlichen Seite noch gefühlt ewig hinziehen.


Bild 1: Ein Monitoring-Tool wie PRTG liefert im Idealfall eine Übersicht über alle Anwendungen,
ihren aktuellen Status und die Auslastung.


Zeitgemäße Tools zum Webseiten-Monitoring überwachen daher weit mehr als nur die reine Reaktionszeit: Sie messen beispielsweise die Ladezeit des Quellcodes oder auch der kompletten Webseite inklusive aller Inhalte. Über Skripte werden Anmeldevorgänge oder Kaufprozesse simuliert und die Reaktionszeiten gemessen. Andere Skripte können einzelne Werte aus einer Webseite auslesen und überprüfen. Dazu können diese Tools auch die unterschiedlichen Webserver überwachen.

Agiert das Unternehmen international, kommt noch eine ganz andere Herausforderung dazu: Wird der Webserver in Deutschland betrieben und ist er aus Deutschland ohne Verzögerung erreichbar, heißt das noch lange nicht, dass Kunden aus den USA oder Asien ebenfalls schnellen Zugriff haben. In diesem Fall muss die Monitoring-Lösung das Überwachen der Webseite von weltweit verteilten Standorten aus ermöglichen. All das liefert dem Administrator aber in der Regel nur die Information, dass etwas nicht in Ordnung ist. Warum das so ist, erfährt er nicht.

Seite 1: Die Webseite im Blick
Seite 2: Probleme schon im Entstehen vermeiden


Seite 1 von 2 Nächste Seite >>
20.09.2017/ln/Sebastian Krüger, Partner Account Manager bei der Paessler AG

Nachrichten

Mehr Speed beim Virtualisieren unter macOS [11.08.2020]

Parallels stellt Version 16 von Parallels Desktop für Mac vor. Dabei hat der Anbieter das Design überarbeitet und den neuen macOS Big Sur angepasst. Außerdem soll es eine bessere Grafikleistung sowie eine Vielzahl neuer integrierter Funktionen bieten, etwa die laut Parallels weltweit erstmalige Unterstützung von Metal-Programmen mit 3D-Funktionen, die in einer virtuellen macOS-Big-Sur-Maschine laufen. Zudem verspricht der Hersteller Leistungsverbesserungen wie einen doppelt so schnellen Start, ein um bis zu 20 Prozent schnelleres Fortsetzen und Herunterfahren von Windows sowie schnelleres DirectX. [mehr]

Netzwerkfehler schnell auffinden [22.06.2020]

Allegro Packets erweitert seine Produktfamilie der Network Multimeter für die Fehlersuche und Netzwerkanalyse mit den Modellen "1330", "3300" und "5300". Die x300-Serie verspricht hohe Leistung, die beim Allegro 5300 eine Analyserate von bis zu 100 GBit/s ermöglichen sollen. [mehr]

Tipps & Tools

Vorschau Januar 2020: LAN, WAN & SDN [16.12.2019]

Die Netzwerkinfrastruktur gehört wahrscheinlich nicht zu den heißesten Themen im IT-Bereich, nimmt jedoch einen enormen Stellenwert für Administratoren ein. Denn ohne stabile Grundlage kommt es schnell zu Engpässen im Datendurchsatz und Ausfällen von Applikationen. IT-Administrator startet das neue Jahr deshalb mit dem Schwerpunkt "LAN, WAN & SDN". Darin zeigen wir unter anderem, wie Sie Netzwerkgeräte mit rConfig, Jinja2 und Netdisco verwalten. Außerdem lesen Sie, wie Sie Anmeldungen mit dem Microsoft Network Policy Server unter Kontrolle behalten. In den Tests werfen wir einen Blick auf die NetBrain Integrated Edition 8.0. [mehr]

Fernzugriff auf PRTG Core Server [24.11.2019]

PRTG Network Monitor wird in vielen Unternehmen für das Monitoring der IT-Infrastruktur verwendet. Nicht selten kommt die Frage auf, wie der Zugriff auf den PRTG Core Server auch von außerhalb des Unternehmensnetzwerks möglich ist. Was der Admin hier beachten muss und welche Vorkehrungen wichtig sind, um Zugriffe durch unautorisierte Dritte zu verhindern, zeigt dieser Tipp. [mehr]

Buchbesprechung

Microsoft Office 365

von Markus Widl

Anzeigen