Aufgaben eines modernen Monitorings (3)

Lesezeit
3 Minuten
Bis jetzt gelesen

Aufgaben eines modernen Monitorings (3)

18.09.2017 - 00:00
Veröffentlicht in:

Monitoring ist die unmittelbare systematische Erfassung, Beobachtung oder Überwachung eines Vorgangs oder Prozesses mittels technischer Hilfsmittel. So schlicht die Definition ist, so komplex sind die Missverständnisse, die dieses Thema zwischen Business und IT aufwirft. Dabei hilft richtig verstandenes und betriebenes Monitoring Unternehmen in allen Geschäftsbereichen. Der dritte Teil der Serie beschäftigt sich mit Sicherheitsmonitoring und der Überwachung von Echtzeitapplikationen.

Monitoring sichert Umsatz
Die Webseite ist für Firmen das Aushängeschild bei ihren Kunden. Der Internet-Auftritt inklusive einem eventuell integrierten Webshop repräsentiert somit die digitale Kompetenz eines Unternehmens. Aus diesem Grund kommt der Verfügbarkeit und hohen Performance der Internetpräsenz eine enorme Bedeutung zu. Ist die Webseite nicht rund um die Uhr erreichbar, kommt es zu langen Ladezeiten. Scheitern beispielsweise die Kaufprozesse im Webshop an technischen Fehlern, können Anbieter dadurch Kundschaft verlieren.

Über in die Website integrierte Sensoren sorgt eine Monitoring-Lösung für die Vermeidung von möglichen Verlusten. Stellt sie ein ungewöhnliches Verhalten (beispielsweise langsame Ladezeiten oder ungewöhnlich hohe Transaktionszeiten) auf einer Website fest, wird der zuständige Administrator automatisch alarmiert. Auch lassen sich die Webseiten-Zugriffe und die übertragenen Daten prüfen, um Lastspitzen zu bestimmten Tageszeiten zu identifizieren.

Monitoring verbessert die Sicherheit
Aus Sicht der IT sollte jedes Netzwerk und die daran angeschlossenen Ressourcen einfach zu verwalten und dazu noch schwer angreifbar sein. Dieses Schutzsystem wird heute in der Regel durch unzählige Racks von Security-Appliances realisiert. Der Nachteil dieses Lösungsansatzes ist jedoch die Tatsache, dass sich die zahlreichen Sicherheitsressourcen nur schwer verwalten lassen und durch Unachtsamkeit und immer neue Sicherheitslöcher leicht zu gefährden sind.

Der wesentlich intelligentere Ansatz geht davon aus, dass das Netzwerk bereits kompromittiert wurde und die Unternehmenssicherheit daher diesen Aspekt berücksichtigen muss. Moderne Malware ist mittlerweile allgegenwärtig. Diese verbirgt sich so geschickt in den Netzwerken, dass kein Unternehmen mehr ausschließen sollte, dass die IT-Umgebung nicht bereits kompromittiert ist. Anstatt immer weitere (meist nutzlose) Schutzschichten zu errichten und zu verwalten, sollte sich ein Teil der im Unternehmen angesiedelten Sicherheitsexperten gezielt auf die Suche nach bereits vorhandenen Sicherheitslöchern und Einfallstoren machen und diese schließen beziehungsweise die Ursachen für das Entstehen der Sicherheitsprobleme beseitigen.

Vor Hackern, Malware und anderen Gefahren schützen sich Unternehmen durch eine Kaskade unterschiedlichster Sicherheitslösungen (Antiviren-Scanner, Firewalls, IPS/IDS-Systeme et cetera). Doch auch die besten Sicherheitswerkzeuge sind nicht gegen Ausfälle immun und trotz aller Sicherheitsmaßnahmen kann ein Unternehmensnetzwerk Cyberattacken zum Opfer fallen. Ungewöhnliche CPU-Last oder auch Traffic-Spitzen können Anzeichen dafür sein. Monitoring-Tools erkennen solche ungewöhnlichen Werte, denn entsprechende Sensoren können von den Administratoren genau an die Sicherheitsanforderungen angepasst werden.

Überwachung von Echtzeitapplikationen
Die Migration auf Voice-over-IP (VoIP) ersetzt die bisher klassischen Telefonnetze. Hinzu kommt die Integration von Videoconferencing als Bestandteil einer Unified Communications (UC)-Lösung. Dadurch werden die in den Unternehmen früher getrennt betriebenen Kommunikationsplattformen zusammengelegt. In der Folge entsteht ein komplexes Rechner- und Netzsystem. Die Integration dieser neuen Anwendungen auf Basis von IP führt zu einem Anstieg der möglichen Fehlerursachen und die Fehlersuche und -analyse wird zur sprichwörtlichen Suche nach der Nadel im Heuhaufen.

Für die geschäftliche Kommunikation sind die Ton- und Bildqualität von VoIP-Verbindungen sowie das Video-Streaming von hoher Bedeutung. Zur Qualitätssicherung von Echtzeitanwendungen sind daher entsprechende Messmittel nötigt. Damit lassen sich eventuelle Fehler ausschließen beziehungsweise bei vorhandenen Fehlern deren Ursachen ermitteln und diese in den Prozessabläufen eliminieren. Ohne die richtige Messtechnik wird ein Fehler meist erst erkannt, wenn der Schaden bereits eingetreten ist. Vor der Inbetriebnahme von VoIP-Systemen sollte sich der Planer bereits Gedanken darüber machen, wie die anwendungsspezifischen Parameter zu messen sind.

Bei den klassischen Datenapplikationen wird hauptsächlich der Bandbreitenbedarf beziehungsweise dessen Veränderung protokolliert. Durch eine kontinuierliche Kontrolle hat der Administrator die Möglichkeit, rechtzeitig einzugreifen und kann den Ursachen gezielt entgegen wirken.

Netzwerke müssen als sich stetig ändernde "Organismen" begriffen werden. Wächst das Unternehmen, wächst das Netzwerk automatisch mit. Durch neue Applikationen im Netzwerk wird jedoch eine immer höhere Bandbreite benötigt. Echtzeitapplikationen reagieren sehr empfindlich auf Veränderungen im Netzwerk. Darüber hinaus ist zu beachten, dass eine hohe VoIP-Qualität nicht einfach nur durch ein Hinzufügen von Bandbreite sichergestellt werden kann.

Im Gegensatz zu den klassischen Datenübermittlungen müssen durch Echtzeitanwendungen erstmals Mechanismen zur Bandbreitenreservierung und zur Priorisierung in den Netzwerken aktiviert werden. Es ist jedoch nicht mit einer einmaligen Konfiguration der entsprechenden Priorisierungsmechanismen getan. Der Betrieb erfordert eine ständige Kontrolle der QoS- und der Netzwerkparameter.

Fazit
Ein Monitoring-Werkzeug bietet den IT-Administratoren die notwendigen Hilfestellungen zur Bewältigung des Arbeitsalltags. Die Überwachung aller Netzwerkkomponenten und der am Netzwerk angeschlossenen IT-Systeme sorgt für die schnelle Erkennung von Problemen, deren umgehende Meldung und deren schnelle Beseitigung. Meist kann ein Fehler bereits behoben werden, bevor ernsthafte Schäden und dadurch erhebliche Kosten entstehen.
 
Im ersten Teil der Artikels hatten wir uns an eine erste Bestandsaufnahme zum Thema Monitoring in der Unternehmens-IT gemacht.
Im zweite Teil der Serie gingen wir auf die Aufgaben des Monitorings, die Anforderungen an Überwachungswerkzeuge und Monitoring in der Cloud ein.


jp/ln
 

Ähnliche Beiträge

Netzwerkverwaltung an der Medizinischen Universität Wien

Die IT-Abteilung der Medizinischen Universität Wien betreibt das Netzwerk der Universität, wozu die Betreuung von rund 10.000 Anschlüssen sowie Hunderten Endgeräten und Servern gehört. Für diese Aufgabe wurde eine neue Informations- und Planungssoftware für Kabelmanagement und Netzwerkdokumentation implementiert. Das neue Werkzeug ist flexibel, skalierbar und deckt die steigenden Sicherheitsanforderungen voll ab.

Zero-Touch-Provisionierung von aktiven Netzwerkkomponenten (3)

Zero-Touch-Provisionierungsprozesse sind im Rollout von Client-PCs und Servern bereits lange Zeit Standard. Im Gegensatz dazu kommen diese Prozesse bei aktiven Netzwerkkomponenten wie Routern und Switches nur selten zum Einsatz. Im dritten und letzten Teil gehen wir auf weitere Varianten ein, etwa die ZTP-Provisionierung ohne proprietären Server, die Boot-Loader-Variante iPXE oder das alte Verfahren AutoInstall.

Zero-Touch-Provisionierung von aktiven Netzwerkkomponenten (2)

Zero-Touch-Provisionierungsprozesse sind im Rollout von Client-PCs und Servern bereits lange Zeit Standard. Im Gegensatz dazu kommen diese Prozesse bei aktiven Netzwerkkomponenten wie Routern und Switches nur selten zum Einsatz. Im zweiten Teil der Workshopserie schildern wir den proprietären Cisco-Ansatz "Network-Plug-and-Play", der über eine GUI erfolgt und bei dem sich die ausgerollten Komponenten an die Gegebenheiten im Netzwerk anpassen lassen.