Fachartikel

Seite 2 - ERP-Bremsen auf der Spur

Messung über alle Komponenten
Um Flaschenhälse, Fehlkonfigurationen oder andere Störungsquellen zu erkennen, ist also ein gewisser Aufwand notwendig, der alle Komponenten der AX-Installation berücksichtigt. Das bedingt zunächst ein umfassendes Monitoring – nur was gemessen werden kann, lässt sich auch optimieren. Um die benötigten Performancedaten zu erheben, kommt auf der einen Seite eine Monitoring-Lösung wie NetEye von Würth Phoenix zum Einsatz, die konstant die vielfältigen Metriken erfassen und bei Leistungseinbrüchen Alarm geben kann.

Hierbei werden an allen Bausteinen – Datenbankserver, Applikationsserver und nicht zuletzt Virtualisierungslösung – die üblichen Leistungsdaten wie I/O-Last, CPU-Last, Disks oder RAM erfasst. Die Messung sollte in relativ kleinen Intervallen erfolgen, um valide Daten zu erhalten. Ein zu kurzes Intervall jedoch birgt die Gefahr, dass die Datenmasse unüberschaubar und damit wertlos wird. Hier haben sich in der Praxis Zeitabstände von zwei bis fünf Sekunden bewährt.


Bild 2: Komplexe Lösungen wie Microsoft Dynamics AX erzeugen beim Monitoring immense Datenmassen,
die analysiert werden müssen.

Mit dem herkömmlichen Monitoringansatz geht allerdings besonders bei komplexen Systemen wie Microsoft Dynamics AX ein Problem einher: Performancemanagement zielt auf die fortlaufende Verbesserung des Systems ab. Die gemessenen Daten werden also nicht nur auf Anomalien hin überwacht, die auf Störungen schließen lassen. Sie müssen umfassend analysiert werden, um das Verhalten des ERP-Systems unter verschiedenen Lastbedingungen zu verstehen, potenzielle Engpässe aufzuspüren und das ERP langfristig zu optimieren.

Die klassischen Monitoringmethoden liefern Mittelwerte. Die Aussagekraft dieser Informationen ist begrenzt, Unschärfen lassen sich kaum vermeiden. Zudem kann es bei Changes an der Lösung passieren, dass eine Übergangsphase auftritt, in der mehrere Zustände gleichzeitig existieren. Das kommt zum Beispiel vor, wenn Veränderungen an der Anwendung über das gesamte Netzwerk hinweg betrachtet werden: Betriebssysteme und Geräteklassen haben meist spezifische Charakteristiken bei den Leistungsmetriken. Beim herkömmlichen Monitoring wird alles in einen Topf geworfen, die Informationen sagen wenig über das Verhalten der Untergruppen aus.
Daten-Cluster für KI
Abhilfe schafft eine andere Definition: Anstatt den Standard-Traffic als "Datenverkehr innerhalb eines bestimmten Durchschnittsbereichs" zu definieren, kann die als normal anzusehende Datenverteilung durch eine Funktion der Wahrscheinlichkeitsdichte abgeschätzt werden. Die daraus resultierende Definition des Standard-Datenverkehrs ist damit "Datenverkehr innerhalb einer bestimmten Bandbreite eines der deutlichsten Maximalwerte der Wahrscheinlichskeitsdichtefunktion." Damit erhält der IT-Verantwortliche statt des Mittelwerts eine Dichte, die anzeigt, wie sich der Datenverkehr und die Datenmenge verteilen. Metriken wie Client-Latenz oder Datendurchsatz lassen sich somit in einen Zusammenhang bringen. Administratoren erhalten eine informationsreichere Abbildung der Daten, die sie zu Clustern zusammenfassen können.

Für das Performancemanagement bei ERP-Lösungen bietet dieser Ansatz erhebliche Vorteile. Denn um für das Leistungsmanagement die richtigen Schlüsse aus den Daten zu ziehen, ist eine möglichst genaue Auswertung notwendig. Hier kommt KI ins Spiel. Laut einer aktuellen Erhebung des Analystenhauses IDC nutzen bereits über die Hälfte der befragten Unternehmen Analytics und KI, um Informationen über das Verhalten der Infrastruktur zu sammeln und den Ausfall einzelner Komponenten vorherzusagen. Dieser Predictive-Maintenance-Ansatz basiert auf maschinellem Lernen und ist auch im Performancemanagement komplexer Systeme hilfreich, um die relevanten Metriken zu erkennen.

Besonders für das unbeaufsichtigte Lernen, bei dem die KI aus dem Rauschen der erfassten Daten versucht, Muster zu erkennen, sind zu Clustern gruppierten Informationen sehr günstig: Beim unbeaufsichtigten Lernen müssen die Daten anhand ähnlicher Merkmale kategorisiert, also zu Clustern zusammengefasst werden. Die Klassifikatoren erstellt das System selbstständig, Parameter und Kategorien werden fortlaufenden vom Algorithmus nachjustiert.

Metriken aus User-Sicht
Um ein vollständiges Bild der Systemperformance zu erhalten, reicht jedoch diese – sehr detailreiche – Sicht nicht aus. Es ist ebenso wichtig, die Leistung aus der Warte der Endanwender zu betrachten, die letztlich mit dem ERP arbeiten. Bei diesem als "Real User Experience" (RUE) bezeichneten Ansatz wird die Leistung des ERP-Systems vom Client aus gemessen. Dazu werden automatisch typische User-Aktionen wie etwa eine Buchung getriggert. Die ermittelte Latenz wird an das Monitoring übermittelt und steht dort für das Performancemanagement als zusätzliche Metrik bereit.

Für die Anwendersicht gibt es am Markt einige Tools. Auch im Open-Source-Umfeld gibt es leistungsstarke Angebote wie zum Beispiel Alyvix, das sich selbst in großen Infrastrukturen bereits sehr gut bewährt hat. Mit den kombinierten Daten aus dem klassischen Monitoring und der RUE ist eine vollständige Sicht auf alle Leistungsmetriken der ERP-Lösung möglich, die die Leistungsfähigkeit End-to-End berücksichtigt.

Fazit
Durch Performancemanagement lässt sich der Betrieb von Microsoft Dynamics AX und anderen ERP-Lösungen deutlich optimieren. Das hat einige positive Effekte auf die IT, aber auch auf das gesamte Unternehmen: Durch die optimale Auslastung der vorhandenen Ressourcen lassen sich Neuanschaffungen bei der Hardware besser Planen und als regelmäßige Upgrades deutlich effizienter und kostengünstiger umsetzen. Die Ausfallsicherheit der Lösung steigt, da alle Komponenten genau in ihrer Relevanz bekannt sind, überwacht werden und potenzielle Fehlerquellen im Vorfeld beseitigt wurden. Damit erhöht sich die Zufriedenheut der Anwender. Lange Antwortzeiten und Down-Times gehören der Vergangenheit an, die User können störungsfrei ihrer Arbeit nachgehen – ohne lästige Produktivitätsbremsen.


<< Vorherige Seite Seite 2 von 2
10.04.2019/ln/Georg Kostner, Business Unit Manager System Integration bei Würth Phoenix

Nachrichten

NAC-Daten aus der Vergangenheit [25.03.2019]

Mit dem 'macmon Past Viewer' gibt es nun ein Modul, um die bei Network Access Control nicht mehr benötigten und verworfenen Daten strukturiert aufzubereiten, um neben der Live-Sicht auch eine historische Sicht zu erhalten. Pro Endgerät lässt sich damit darstellen, wann und wo es im Netzwerk betrieben wurde, welche IP-Adressen und welche Namen es hatte oder in welchem VLAN es war. [mehr]

Ausgebautes Analysetool für mehr Netzwerkqualität [6.03.2019]

Allegro Network hat für das 'Allegro Network Multimeter' mit Version 2.3.0 eine neue Firmware veröffentlicht. Dabei hat der Hersteller dem neuen Release einen erweiterten Funktionsumfang spendiert. Zu den wichtigsten Neuerungen zählen unter anderem der vereinfachte Remote-Zugriff über die Allegro-Cloud, die erweiterte TCP-Analyse sowie die Nutzung von virtuellen Link-Gruppen. [mehr]

Tipps & Tools

Dunkles Farbschema für PRTG [31.03.2019]

In letzter Zeit ist in vielen Applikationen der 'Dark Mode' wieder populär geworden. Beispielsweise bietet Windows 10 seit der Version 1809 an, den Standard-App-Modus auf 'dunkel' zu stellen. Wer PRTG zur Überwachung der unternehmensweiten IT-Infrastruktur nutzt, hat sich vielleicht schon gefragt, ob es auch dort die Möglichkeit gibt, den Farbmodus zu verändern. Die Antwort lautet: Ja. [mehr]

Auf Bibliotheken basierende PRTG-Benachrichtigungen einrichten [10.03.2019]

Um die Leistungsreserven von Servern im Auge zu behalten, erhalten Admins bei der Nutzung von PRTG Network Monitor Benachrichtigungen, sobald die CPU-Last einen gewissen Prozentsatz übersteigt. Die Einrichtung dieser Meldungen über die Kanal-Grenzwerte des Sensors ist vergleichsweise umständlich und auch nicht hundertprozentig zielführend und in der Praxis verursacht diese Methode eine sehr hohe Anzahl von Alarmen. Aus diesem Grund sollten Sie auf eine intelligentere Benachrichtigungsmethode zurückgreifen. [mehr]

Buchbesprechung

IT-Sicherheit

von Prof. Dr. Claudia Eckert

Anzeigen