Webseiten-Performance proaktiv sichern

Lesezeit
3 Minuten
Bis jetzt gelesen

Webseiten-Performance proaktiv sichern

20.09.2017 - 14:00
Veröffentlicht in:
Bei vielen Unternehmen hängt die Existenz unmittelbar von einer performanten und verfügbaren Webseite ab. Aber selbst wenn der Internet-Auftritt keine absolut zentrale Bedeutung hat: Kaum eine Organisation kann sich heute noch lange Antwortzeiten oder gar Ausfälle seiner Webpräsenz leisten, ohne ernsthafte Verluste zu riskieren. Der Online-Fachartikel erklärt, warum die Überwachung über das reine Webseiten-Monitoring hinausgehen muss und die gesamte IT-Infrastruktur einbeziehen sollte.
Die Lösung gegen lange Antwortzeiten scheint einfach – und ist es doch nicht. Denn die einfache Lösung wäre ein Performance-Monitoring der Web-Applikation. Es erkennt Störungen und analysiert deren Ursache auf Quellcode-Ebene, sodass die zuständigen DevOps das Problem beseitigen können. Dabei werden allerdings nur applikationsimmanente Fehler berücksichtigt, zahlreiche äußere Faktoren wie Hardware, Traffic oder Verbindungsprobleme, die ebenfalls massiven Einfluss auf Performance und Erreichbarkeit eines Web-Auftritts haben, werden außer Acht gelassen. Ein weiteres Problem liegt in der reaktiven Natur der Webseitenüberwachung.

Wirkung und Ursache
Beim klassischen Webseiten-Monitoring wird der Administrator zuerst mit der Wirkung konfrontiert und muss dann die Ursache für das Problem herausfinden und beheben. Der eigentliche Kausalzusammenhang zwischen Ursache und Wirkung wird umgedreht, es wird zunächst die Wirkung abgewartet und dann die Ursache gesucht:
  1. Alarm: "Die Webseite ist nicht erreichbar oder reagiert zu langsam!"
  2. Recherche: "Was sind die Ursachen für die Störung und wie kann ich sie beseitigen?"
Was aber tun, wenn sich die Ursache nicht so einfach herausfinden und das Problem sich daher nicht schnell beheben lässt? Oder lässt sich die Reihenfolge gar umdrehen und die Ursache vor die Wirkung stellen; lassen sich also entstehende Ursachen für Probleme rechtzeitig erkennen und die Folgen proaktiv vermeiden? Aber gehen wir das Ganze der Reihe nach an und definieren erst einmal ein paar Eckwerte.

Eine Sekunde als Grenzwert für Aufmerksamkeit
Jakob Nielsen hat schon 1993 drei Grenzen bei der menschlichen Aufmerksamkeitsspanne als maßgeblich für die Reaktionszeit einer Webseite definiert:
  1. Bis zu 0,1 Sekunden Verzögerung werden vom Nutzer nicht wahrgenommen,
  2. bis zu eine Sekunde wird zwar als Verzögerung wahrgenommen, unterbricht aber noch nicht die Aufmerksamkeit des Nutzers,
  3. bis zu zehn Sekunden unterbrechen die Aufmerksamkeit, führen aber noch nicht unbedingt zum Abbruch der Aktion (des Wartens).
In Zeiten von Glasfasernetzen und einer deutlich verkürzten Aufmerksamkeitsspanne noch unter Goldfischniveau dürften die zehn Sekunden Wartezeit für das Laden einer Webseite schon sehr optimistisch sein: Viele Experten sehen die maximal vertretbare Ladezeit bei ein bis zwei Sekunden. Wird diese überschritten, steigt das Risiko, dass der Nutzer abbricht, mit jeder Sekunde weiter an. Allerdings spielt nicht nur die Ladezeit beim Aufrufen eines Web-Auftritts eine wichtige Rolle bei der Nutzererfahrung: Sobald der Besucher auf der Seite eine Aktion ausführt und etwa einen Kaufprozess durchführen oder sich anmelden will und dabei unverhältnismäßig lang warten muss, wird auch sein Vertrauen in die allgemeine Zuverlässigkeit des Webseitenbetreibers leiden.

Gerade bei Webshops spielt die möglichst verzögerungsfreie Abwicklung eine große Rolle. Längeres Warten auf Bestätigung führt hier schnell zum Abbruch durch den Kunden, der um sein Geld fürchtet. Der Shop verliert das Vertrauen des Kunden, und im schlimmsten Fall spricht sich das auch noch herum. Was also tun, um die bestmögliche Antwortzeit des Internet-Auftritts sicherzustellen und die Besucher desselben glücklich zu machen? Natürlich ist das klassische Monitoring der Webseite als Rückversicherung nach wie vor unumgänglich.

Die Webseite im Blick
Überspringen wir einmal das einfache Webseiten-Monitoring aus den Anfängen des Internets, wo ein Ping auf die Webseite deren Reaktionszeit misst (was nach wie vor wichtig ist). Die reine Reaktionszeit einer Webseite sagt nicht unbedingt etwas über die Nutzererfahrung aus: Schließlich kann sich nach dem ersten Ping das Laden der eigentlichen Seite noch gefühlt ewig hinziehen.


Bild 1: Ein Monitoring-Tool wie PRTG liefert im Idealfall eine Übersicht über alle Anwendungen,
ihren aktuellen Status und die Auslastung.


Zeitgemäße Tools zum Webseiten-Monitoring überwachen daher weit mehr als nur die reine Reaktionszeit: Sie messen beispielsweise die Ladezeit des Quellcodes oder auch der kompletten Webseite inklusive aller Inhalte. Über Skripte werden Anmeldevorgänge oder Kaufprozesse simuliert und die Reaktionszeiten gemessen. Andere Skripte können einzelne Werte aus einer Webseite auslesen und überprüfen. Dazu können diese Tools auch die unterschiedlichen Webserver überwachen.

Agiert das Unternehmen international, kommt noch eine ganz andere Herausforderung dazu: Wird der Webserver in Deutschland betrieben und ist er aus Deutschland ohne Verzögerung erreichbar, heißt das noch lange nicht, dass Kunden aus den USA oder Asien ebenfalls schnellen Zugriff haben. In diesem Fall muss die Monitoring-Lösung das Überwachen der Webseite von weltweit verteilten Standorten aus ermöglichen. All das liefert dem Administrator aber in der Regel nur die Information, dass etwas nicht in Ordnung ist. Warum das so ist, erfährt er nicht.

Seite 1: Die Webseite im Blick
Seite 2: Probleme schon im Entstehen vermeiden


Seite 1 von 2 Nächste Seite >>


ln/Sebastian Krüger, Partner Account Manager bei der Paessler AG

Ähnliche Beiträge

KI-unterstützte Netzwerkverwaltung

Administratoren müssen für einen reibungslosen Ablauf innerhalb des Netzwerks sorgen, um die erwartete Nutzererfahrung konsistent zu liefern. Doch mit sich ständig verändernden Variablen ist dies von menschlicher Hand kaum mehr managebar. Eine Voraussetzung, um in Echtzeit auf Probleme reagieren zu können, sind KI-basierte Betriebsabläufe. Dieser Ansatz unterstützt Admins bei ihrer Arbeit und übernimmt bestimmte Tätigkeiten automatisch.

Netzwerk-Monitoring-Markt im Wandel - Setzen Sie auf einen stabilen Partner!

Fusionen, Übernahmen und steigende Preise sorgen für Unsicherheit bei den Kunden von Netzwerk-Monitoring-Tools. ManageEngine bietet mit der umfassenden IT-Monitoring-Plattform OpManager Plus eine stabile Alternative durch Inhouse-Entwicklung, flexible Bereitstellungsmodelle und transparente Preise.

Netzwerke per Cloud administrieren

Ein cloudbasiertes Netzwerkmanagement und -monitoring kann dem IT-Team im verteilten Unternehmen die Arbeit erleichtern. Denn so ist es möglich, von zentraler Stelle aus und mit KI-Unterstützung die Verfügbarkeit und Performance aller Netzwerkgeräte zu kontrollieren – vom Data Center über Campus-LAN, WLAN und SD-WAN bis hin zu den Edge-Geräten in den Niederlassungen. Der Artikel erläutert, worauf ein IT-Team dabei achten sollte: von AI-Assistent bis Zero-Touch Deployment.