Fachartikel

Seite 2 - ERP-Bremsen auf der Spur

Messung über alle Komponenten
Um Flaschenhälse, Fehlkonfigurationen oder andere Störungsquellen zu erkennen, ist also ein gewisser Aufwand notwendig, der alle Komponenten der AX-Installation berücksichtigt. Das bedingt zunächst ein umfassendes Monitoring – nur was gemessen werden kann, lässt sich auch optimieren. Um die benötigten Performancedaten zu erheben, kommt auf der einen Seite eine Monitoring-Lösung wie NetEye von Würth Phoenix zum Einsatz, die konstant die vielfältigen Metriken erfassen und bei Leistungseinbrüchen Alarm geben kann.

Hierbei werden an allen Bausteinen – Datenbankserver, Applikationsserver und nicht zuletzt Virtualisierungslösung – die üblichen Leistungsdaten wie I/O-Last, CPU-Last, Disks oder RAM erfasst. Die Messung sollte in relativ kleinen Intervallen erfolgen, um valide Daten zu erhalten. Ein zu kurzes Intervall jedoch birgt die Gefahr, dass die Datenmasse unüberschaubar und damit wertlos wird. Hier haben sich in der Praxis Zeitabstände von zwei bis fünf Sekunden bewährt.


Bild 2: Komplexe Lösungen wie Microsoft Dynamics AX erzeugen beim Monitoring immense Datenmassen,
die analysiert werden müssen.

Mit dem herkömmlichen Monitoringansatz geht allerdings besonders bei komplexen Systemen wie Microsoft Dynamics AX ein Problem einher: Performancemanagement zielt auf die fortlaufende Verbesserung des Systems ab. Die gemessenen Daten werden also nicht nur auf Anomalien hin überwacht, die auf Störungen schließen lassen. Sie müssen umfassend analysiert werden, um das Verhalten des ERP-Systems unter verschiedenen Lastbedingungen zu verstehen, potenzielle Engpässe aufzuspüren und das ERP langfristig zu optimieren.

Die klassischen Monitoringmethoden liefern Mittelwerte. Die Aussagekraft dieser Informationen ist begrenzt, Unschärfen lassen sich kaum vermeiden. Zudem kann es bei Changes an der Lösung passieren, dass eine Übergangsphase auftritt, in der mehrere Zustände gleichzeitig existieren. Das kommt zum Beispiel vor, wenn Veränderungen an der Anwendung über das gesamte Netzwerk hinweg betrachtet werden: Betriebssysteme und Geräteklassen haben meist spezifische Charakteristiken bei den Leistungsmetriken. Beim herkömmlichen Monitoring wird alles in einen Topf geworfen, die Informationen sagen wenig über das Verhalten der Untergruppen aus.
Daten-Cluster für KI
Abhilfe schafft eine andere Definition: Anstatt den Standard-Traffic als "Datenverkehr innerhalb eines bestimmten Durchschnittsbereichs" zu definieren, kann die als normal anzusehende Datenverteilung durch eine Funktion der Wahrscheinlichkeitsdichte abgeschätzt werden. Die daraus resultierende Definition des Standard-Datenverkehrs ist damit "Datenverkehr innerhalb einer bestimmten Bandbreite eines der deutlichsten Maximalwerte der Wahrscheinlichskeitsdichtefunktion." Damit erhält der IT-Verantwortliche statt des Mittelwerts eine Dichte, die anzeigt, wie sich der Datenverkehr und die Datenmenge verteilen. Metriken wie Client-Latenz oder Datendurchsatz lassen sich somit in einen Zusammenhang bringen. Administratoren erhalten eine informationsreichere Abbildung der Daten, die sie zu Clustern zusammenfassen können.

Für das Performancemanagement bei ERP-Lösungen bietet dieser Ansatz erhebliche Vorteile. Denn um für das Leistungsmanagement die richtigen Schlüsse aus den Daten zu ziehen, ist eine möglichst genaue Auswertung notwendig. Hier kommt KI ins Spiel. Laut einer aktuellen Erhebung des Analystenhauses IDC nutzen bereits über die Hälfte der befragten Unternehmen Analytics und KI, um Informationen über das Verhalten der Infrastruktur zu sammeln und den Ausfall einzelner Komponenten vorherzusagen. Dieser Predictive-Maintenance-Ansatz basiert auf maschinellem Lernen und ist auch im Performancemanagement komplexer Systeme hilfreich, um die relevanten Metriken zu erkennen.

Besonders für das unbeaufsichtigte Lernen, bei dem die KI aus dem Rauschen der erfassten Daten versucht, Muster zu erkennen, sind zu Clustern gruppierten Informationen sehr günstig: Beim unbeaufsichtigten Lernen müssen die Daten anhand ähnlicher Merkmale kategorisiert, also zu Clustern zusammengefasst werden. Die Klassifikatoren erstellt das System selbstständig, Parameter und Kategorien werden fortlaufenden vom Algorithmus nachjustiert.

Metriken aus User-Sicht
Um ein vollständiges Bild der Systemperformance zu erhalten, reicht jedoch diese – sehr detailreiche – Sicht nicht aus. Es ist ebenso wichtig, die Leistung aus der Warte der Endanwender zu betrachten, die letztlich mit dem ERP arbeiten. Bei diesem als "Real User Experience" (RUE) bezeichneten Ansatz wird die Leistung des ERP-Systems vom Client aus gemessen. Dazu werden automatisch typische User-Aktionen wie etwa eine Buchung getriggert. Die ermittelte Latenz wird an das Monitoring übermittelt und steht dort für das Performancemanagement als zusätzliche Metrik bereit.

Für die Anwendersicht gibt es am Markt einige Tools. Auch im Open-Source-Umfeld gibt es leistungsstarke Angebote wie zum Beispiel Alyvix, das sich selbst in großen Infrastrukturen bereits sehr gut bewährt hat. Mit den kombinierten Daten aus dem klassischen Monitoring und der RUE ist eine vollständige Sicht auf alle Leistungsmetriken der ERP-Lösung möglich, die die Leistungsfähigkeit End-to-End berücksichtigt.

Fazit
Durch Performancemanagement lässt sich der Betrieb von Microsoft Dynamics AX und anderen ERP-Lösungen deutlich optimieren. Das hat einige positive Effekte auf die IT, aber auch auf das gesamte Unternehmen: Durch die optimale Auslastung der vorhandenen Ressourcen lassen sich Neuanschaffungen bei der Hardware besser Planen und als regelmäßige Upgrades deutlich effizienter und kostengünstiger umsetzen. Die Ausfallsicherheit der Lösung steigt, da alle Komponenten genau in ihrer Relevanz bekannt sind, überwacht werden und potenzielle Fehlerquellen im Vorfeld beseitigt wurden. Damit erhöht sich die Zufriedenheut der Anwender. Lange Antwortzeiten und Down-Times gehören der Vergangenheit an, die User können störungsfrei ihrer Arbeit nachgehen – ohne lästige Produktivitätsbremsen.


<< Vorherige Seite Seite 2 von 2
10.04.2019/ln/Georg Kostner, Business Unit Manager System Integration bei Würth Phoenix

Nachrichten

Nahtloser Übergang in die Cloud [6.05.2019]

Qualys gibt den Startschuss für seinen neuen Dienst 'Cloud Agent Gateway'. Als Erweiterung der Cloud-Agent-Plattform soll die Neuvorstellung umfangreiche Implementierungen in lokalen und Hybrid-Cloudumgebungen deutlich vereinfachen. Cloudagenten lassen sich damit laut Anbieter auch in großem Umfang einsetzen, ohne dabei auf Drittanbieter-Proxieszurückgreifen zu müssen. [mehr]

NAC-Daten aus der Vergangenheit [25.03.2019]

Mit dem 'macmon Past Viewer' gibt es nun ein Modul, um die bei Network Access Control nicht mehr benötigten und verworfenen Daten strukturiert aufzubereiten, um neben der Live-Sicht auch eine historische Sicht zu erhalten. Pro Endgerät lässt sich damit darstellen, wann und wo es im Netzwerk betrieben wurde, welche IP-Adressen und welche Namen es hatte oder in welchem VLAN es war. [mehr]

Tipps & Tools

Jetzt noch buchen: Open-Source-Monitoring in Windows-Umgebungen [10.06.2019]

Auch bei den Trainings des IT-Administrator steht die Sommersaison vor der Tür: So geht es etwa Anfang Juli um "Open-Source-Monitoring in Windows-Umgebungen", denn freie Software steht hier in vielen Ausprägungen zur Verfügung. Sichern Sie sich noch heute Ihren Platz für die Veranstaltung, die in München stattfinden wird. Abonnenten buchen besonders günstig und zahlen statt 299 nur 238 Euro. [mehr]

Zentrale Kontrollinstanz für PRTG [2.06.2019]

Wenn Unternehmen zur Überwachung der Netzwerkinfrastruktur PRTG Network Monitor einsetzen, sind die Installationen oft über mehrere Standorte verteilt. Nicht selten ist sowohl die klassische On-Premises-Variante im Einsatz als auch einige Instanzen von "PRTG hosted by Paessler", die vollumfänglich in der Cloud laufen. Wer sich hier ein zentrales Tool zur Verwaltung all Installationen wünscht, muss nicht länger warten. [mehr]

Buchbesprechung

Anzeigen