Seite 2 - ERP-Bremsen auf der Spur

Lesezeit
3 Minuten
Bis jetzt gelesen

Seite 2 - ERP-Bremsen auf der Spur

10.04.2019 - 14:00
Veröffentlicht in:
Messung über alle Komponenten
Um Flaschenhälse, Fehlkonfigurationen oder andere Störungsquellen zu erkennen, ist also ein gewisser Aufwand notwendig, der alle Komponenten der AX-Installation berücksichtigt. Das bedingt zunächst ein umfassendes Monitoring – nur was gemessen werden kann, lässt sich auch optimieren. Um die benötigten Performancedaten zu erheben, kommt auf der einen Seite eine Monitoring-Lösung wie NetEye von Würth Phoenix zum Einsatz, die konstant die vielfältigen Metriken erfassen und bei Leistungseinbrüchen Alarm geben kann.

Hierbei werden an allen Bausteinen – Datenbankserver, Applikationsserver und nicht zuletzt Virtualisierungslösung – die üblichen Leistungsdaten wie I/O-Last, CPU-Last, Disks oder RAM erfasst. Die Messung sollte in relativ kleinen Intervallen erfolgen, um valide Daten zu erhalten. Ein zu kurzes Intervall jedoch birgt die Gefahr, dass die Datenmasse unüberschaubar und damit wertlos wird. Hier haben sich in der Praxis Zeitabstände von zwei bis fünf Sekunden bewährt.


Bild 2: Komplexe Lösungen wie Microsoft Dynamics AX erzeugen beim Monitoring immense Datenmassen,
die analysiert werden müssen.

Mit dem herkömmlichen Monitoringansatz geht allerdings besonders bei komplexen Systemen wie Microsoft Dynamics AX ein Problem einher: Performancemanagement zielt auf die fortlaufende Verbesserung des Systems ab. Die gemessenen Daten werden also nicht nur auf Anomalien hin überwacht, die auf Störungen schließen lassen. Sie müssen umfassend analysiert werden, um das Verhalten des ERP-Systems unter verschiedenen Lastbedingungen zu verstehen, potenzielle Engpässe aufzuspüren und das ERP langfristig zu optimieren.

Die klassischen Monitoringmethoden liefern Mittelwerte. Die Aussagekraft dieser Informationen ist begrenzt, Unschärfen lassen sich kaum vermeiden. Zudem kann es bei Changes an der Lösung passieren, dass eine Übergangsphase auftritt, in der mehrere Zustände gleichzeitig existieren. Das kommt zum Beispiel vor, wenn Veränderungen an der Anwendung über das gesamte Netzwerk hinweg betrachtet werden: Betriebssysteme und Geräteklassen haben meist spezifische Charakteristiken bei den Leistungsmetriken. Beim herkömmlichen Monitoring wird alles in einen Topf geworfen, die Informationen sagen wenig über das Verhalten der Untergruppen aus.

Daten-Cluster für KI
Abhilfe schafft eine andere Definition: Anstatt den Standard-Traffic als "Datenverkehr innerhalb eines bestimmten Durchschnittsbereichs" zu definieren, kann die als normal anzusehende Datenverteilung durch eine Funktion der Wahrscheinlichkeitsdichte abgeschätzt werden. Die daraus resultierende Definition des Standard-Datenverkehrs ist damit "Datenverkehr innerhalb einer bestimmten Bandbreite eines der deutlichsten Maximalwerte der Wahrscheinlichskeitsdichtefunktion." Damit erhält der IT-Verantwortliche statt des Mittelwerts eine Dichte, die anzeigt, wie sich der Datenverkehr und die Datenmenge verteilen. Metriken wie Client-Latenz oder Datendurchsatz lassen sich somit in einen Zusammenhang bringen. Administratoren erhalten eine informationsreichere Abbildung der Daten, die sie zu Clustern zusammenfassen können.

Für das Performancemanagement bei ERP-Lösungen bietet dieser Ansatz erhebliche Vorteile. Denn um für das Leistungsmanagement die richtigen Schlüsse aus den Daten zu ziehen, ist eine möglichst genaue Auswertung notwendig. Hier kommt KI ins Spiel. Laut einer aktuellen Erhebung des Analystenhauses IDC nutzen bereits über die Hälfte der befragten Unternehmen Analytics und KI, um Informationen über das Verhalten der Infrastruktur zu sammeln und den Ausfall einzelner Komponenten vorherzusagen. Dieser Predictive-Maintenance-Ansatz basiert auf maschinellem Lernen und ist auch im Performancemanagement komplexer Systeme hilfreich, um die relevanten Metriken zu erkennen.

Besonders für das unbeaufsichtigte Lernen, bei dem die KI aus dem Rauschen der erfassten Daten versucht, Muster zu erkennen, sind zu Clustern gruppierten Informationen sehr günstig: Beim unbeaufsichtigten Lernen müssen die Daten anhand ähnlicher Merkmale kategorisiert, also zu Clustern zusammengefasst werden. Die Klassifikatoren erstellt das System selbstständig, Parameter und Kategorien werden fortlaufenden vom Algorithmus nachjustiert.

Metriken aus User-Sicht
Um ein vollständiges Bild der Systemperformance zu erhalten, reicht jedoch diese – sehr detailreiche – Sicht nicht aus. Es ist ebenso wichtig, die Leistung aus der Warte der Endanwender zu betrachten, die letztlich mit dem ERP arbeiten. Bei diesem als "Real User Experience" (RUE) bezeichneten Ansatz wird die Leistung des ERP-Systems vom Client aus gemessen. Dazu werden automatisch typische User-Aktionen wie etwa eine Buchung getriggert. Die ermittelte Latenz wird an das Monitoring übermittelt und steht dort für das Performancemanagement als zusätzliche Metrik bereit.

Für die Anwendersicht gibt es am Markt einige Tools. Auch im Open-Source-Umfeld gibt es leistungsstarke Angebote wie zum Beispiel Alyvix, das sich selbst in großen Infrastrukturen bereits sehr gut bewährt hat. Mit den kombinierten Daten aus dem klassischen Monitoring und der RUE ist eine vollständige Sicht auf alle Leistungsmetriken der ERP-Lösung möglich, die die Leistungsfähigkeit End-to-End berücksichtigt.

Fazit
Durch Performancemanagement lässt sich der Betrieb von Microsoft Dynamics AX und anderen ERP-Lösungen deutlich optimieren. Das hat einige positive Effekte auf die IT, aber auch auf das gesamte Unternehmen: Durch die optimale Auslastung der vorhandenen Ressourcen lassen sich Neuanschaffungen bei der Hardware besser Planen und als regelmäßige Upgrades deutlich effizienter und kostengünstiger umsetzen. Die Ausfallsicherheit der Lösung steigt, da alle Komponenten genau in ihrer Relevanz bekannt sind, überwacht werden und potenzielle Fehlerquellen im Vorfeld beseitigt wurden. Damit erhöht sich die Zufriedenheut der Anwender. Lange Antwortzeiten und Down-Times gehören der Vergangenheit an, die User können störungsfrei ihrer Arbeit nachgehen – ohne lästige Produktivitätsbremsen.


<< Vorherige Seite Seite 2 von 2


ln/Georg Kostner, Business Unit Manager System Integration bei Würth Phoenix

Ähnliche Beiträge

Netzwerkverwaltung an der Medizinischen Universität Wien

Die IT-Abteilung der Medizinischen Universität Wien betreibt das Netzwerk der Universität, wozu die Betreuung von rund 10.000 Anschlüssen sowie Hunderten Endgeräten und Servern gehört. Für diese Aufgabe wurde eine neue Informations- und Planungssoftware für Kabelmanagement und Netzwerkdokumentation implementiert. Das neue Werkzeug ist flexibel, skalierbar und deckt die steigenden Sicherheitsanforderungen voll ab.

Zero-Touch-Provisionierung von aktiven Netzwerkkomponenten (3)

Zero-Touch-Provisionierungsprozesse sind im Rollout von Client-PCs und Servern bereits lange Zeit Standard. Im Gegensatz dazu kommen diese Prozesse bei aktiven Netzwerkkomponenten wie Routern und Switches nur selten zum Einsatz. Im dritten und letzten Teil gehen wir auf weitere Varianten ein, etwa die ZTP-Provisionierung ohne proprietären Server, die Boot-Loader-Variante iPXE oder das alte Verfahren AutoInstall.

Zero-Touch-Provisionierung von aktiven Netzwerkkomponenten (2)

Zero-Touch-Provisionierungsprozesse sind im Rollout von Client-PCs und Servern bereits lange Zeit Standard. Im Gegensatz dazu kommen diese Prozesse bei aktiven Netzwerkkomponenten wie Routern und Switches nur selten zum Einsatz. Im zweiten Teil der Workshopserie schildern wir den proprietären Cisco-Ansatz "Network-Plug-and-Play", der über eine GUI erfolgt und bei dem sich die ausgerollten Komponenten an die Gegebenheiten im Netzwerk anpassen lassen.