Fachartikel

Seite 2 - Mit maschinellem Lernen zu einer bessere Datenverwertung

Herausforderungen beim maschinellen Lernen
Embedded Machine Learning kann insbesondere Routinearbeiten viel schneller und effizienter erledigen. Dennoch gibt es einige Herausforderungen: So liefern Investitionen in KI und ML zunächst oft einen sehr niedrigen ROI (Return of Investment). Viele Unternehmen sehen in KI-Projekten eher experimentelle Wissenschaftsprojekte als eine lohnende Investition in den Kern ihrer Infrastruktur. Ein Grund dafür ist, dass der "Black Box"-Output beim Maschinellen Lernen nicht verstanden wird und deshalb kein Vertrauen in die Ergebnisse vorhanden ist. Das macht es schwierig, Entscheidungen anhand dieser Modelle zu treffen, selbst wenn sie korrekt sind. Der Mensch muss also erst lernen, Vertrauen in die Algorithmen zu fassen.

Hinzu kommt, dass das Ökosystem möglicher Tools komplex ist. Schaffen neue Werkzeuge den Sprung aus der Forschung in die Unternehmen, dann stehen plötzlich auch Fragen nach Sicherheit, Governance-Implikationen und die Suche nach qualifizierten Mitarbeitern im Raum.

Und als letzter Punkt lohnt sich ein Blick auf das Thema Daten. Data Scientists müssen große Mengen an Daten für das maschinelle Lernen zusammenstellen. Laut einem Artikel in der New York Times verbringen sie 80 Prozent ihrer Zeit damit, Daten in eine benutzbare Form zu bringen. Welche Daten sollen verwendet werden? Sind sie korrekt und vertrauenswürdig? Woher stammen sie? Enthalten sie personenbezogene Daten? Entscheidend ist in jedem Fall die Datenqualität. Ist diese unzureichend, wird sich dies deutlich auf die Ergebnisse der Abfragen auswirken.

Verbesserte Funktionsweise von Datenbanken durch ML
Daten werden am besten in einem Data Hub, einer Datenplattform, gesichert, verwaltet und zueinander in Beziehung gesetzt. Genau da, im Kern einer solchen Datenbank, sollte das maschinelle Lernen angesiedelt sein. Mit diesem Ansatz lassen sich zum einen viele Herausforderungen in puncto Governance und Vertrauen in die Datenqualität in den Griff bekommen. Gleichzeitig lässt sich so das Potenzial am besten ausschöpfen, das maschinelles Lernen bietet. KI-Prozesse können unter dem Dach einer sicheren Umgebung direkt und parallel nahe an den Daten laufen.

All das hat positive Auswirkungen darauf, wie die Datenbank funktioniert, wie Daten gepflegt und wie Modelle trainiert und durchgeführt werden. Embedded Machine Learning optimiert nicht zuletzt die Performance der Datenbank selber. So lässt sich zum Beispiel durch die Überwachung von Abfragemustern und Zugriffsplänen die Leistung zukünftiger Ausführungen verbessern, indem das System automatisch neu angepasst wird. Ein weiteres Beispiel ist die autonome Elastizität. Damit finden Modelle von Abfragemustern Verwendung, um die Regeln für das Neuverteilen von Daten oder ihrer Neuindizierung zu automatisieren.
Optimierte Datenpflege
In einem Data Hub werden Daten integriert, gespeichert und gepflegt, um deren Nutzen zu steigern. Dabei beinhaltet Datenpflege die Qualitätskontrolle, Harmonisierung, den Abgleich und die Anreicherung der Daten. Das maschinelle Lernen bietet für jeden dieser Schritte spezielle Anwendungen, die helfen, den Automatisierungsgrad zu erhöhen und die Komplexität zu reduzieren:

  • Intelligentes Mastering: Smart Mastering gleicht Daten intelligent ab und führt sie zusammen. Dies ist durchaus als Weiterführung von KI und Fuzzy-Matching zu verstehen. Mit Embedded Machine Learning wird Smart Mastering noch intelligenter, denn ML kommt zum Einsatz, um den bestehenden, regelbasierten Mastering-Prozess zu erweitern und so die Genauigkeit zu verbessern und Ausnahmen entsprechend zu verwalten.
  • Datenmodellierung: Maschinelles Lernen kann während der Modellierungsphase genutzt werden, um festzustellen, ob in bestimmten Daten personenbezogene Informationen enthalten sind und um ihren Abgleich-Algorithmus genauer zu machen (damit weniger manuelle Eingriffe notwendig werden). Außerdem unterstützt ML auch die Klassifizierung von Attributen und schlägt Mapping und Modellierungsregeln vor.
In jedem Fall erfolgt ein ständiges Training der Modelle für maschinelles Lernen. Mit anderen Worten: Je mehr Daten integriert werden, desto intelligenter wird das System. Für Datenwissenschaftler ist es jetzt einfacher, das Trainieren der Modelle mit Testdaten und das Ausführen der Modelle durchzuführen. Gartner schlägt in seinem Technical Professional Advice Paper mit dem Titel "Preparing and Architecting for Machine" Lear eine Referenzarchitektur vor, für die schon Vieles durch Embeddedd Machine Learning erfüllt ist und zwar innerhalb einer Datenbank, aufgesetzt als Data Hub.

Funktionsweise von Embedded Machine Learning
Wie funktioniert denn nun das Embedded Machine Learning genau? Was brauchen Unternehmen, um innerhalb einer Datenbank KI-Algorithmen ablaufen zu lassen? Dazu werden einige Schlüsseltechnologien integriert, die dem Datenwissenschaftler helfen, so ein System aufzusetzen, die aber für den Endanwender, der letztlich den Nutzen haben möchte, nicht von Bedeutung sind.

KI-Modelle, die mit entsprechenden Werkzeugen entwickelt wurden, sollten einfach auf andere Plattformen portierbar sein. Dazu wurde ONNX entwickelt. ONNX ist ein offenes Format, das bei vielen KI-Laufzeitumgebungen Unterstützung findet. Stellt die Datenbank die benötigte Laufzeitumgebung bereit, ergibt sich ein einfacher Workflow: Ein Data Scientist wählt aus einer Vielzahlt an möglichen Werkzeugen ein KI-Tool aus, exportiert das KI-Modell im ONNX-Format und liest es in die Datenbank ein. Unterstützt die Datenbank nun noch Nvidias CUDA (Compute Unified Device Architecture) können moderne Graphikprozessoren Verwendung finden, um die KI-Anwendung in der Datenbank sowohl auf einem Laptop als auch im Rechenzentrum hardwarebeschleunigt ablaufen zu lassen.

Fazit
KI und ML sind faszinierende Technologien und bieten zweifelsohne große Chancen, aber der Weg von der Idee zur Umsetzung muss einfach sein. Dabei hilft es, ML nicht als spezifische Technologie, sondern eher als einen Prozess zu verstehen: Die Integration der Daten in einen Data Hub, der Entwurf von Modellen, die auf den integrierten Daten operieren sollen und letztlich der Ablauf der Algorithmen direkt innerhalb der Datenbank führen dann zum Ziel. Die meisten Branchen, die mit großen Datenmengen arbeiten, haben den Wert des maschinellen Lernens erkannt. Sie können damit Erkenntnisse aus Daten ableiten – oftmals in Echtzeit – und dank dieser Erkenntnisse effizienter arbeiten oder sich Wettbewerbsvorteile verschaffen.

22.01.2020/ln/Dr. Stefan Grotehans, Senior Director Solutions Engineering DACH bei MarkLogic Deutschland

Nachrichten

KI auf großer Fahrt [6.04.2020]

2020 sticht das "Mayflower Autonomous Ship" in See. Es ist eines der ersten unbemannten, vollwertigen und vollautonomen Schiffe, das den Atlantik überquert. Unter Verwendung von KI-, Cloud- und Edge-Technologien von IBM sollen im Rahmen des Projekts Gefahren auf See erkannt und vermieden werden. Auch Red Hat Enterprise Linux ist mit an Bord, während eine KI das Kommando hat. [mehr]

Hilfe bei fehlerhaften Windows-Updates [19.03.2020]

Mit der neuen Version 17 von O&O BlueCon können nun auch Windows-Updates von einem PC oder Server entfernt werden, wenn dieser nicht mehr startet. Das neue Werkzeug O&O UpdateRemover ist nun Bestandteil von O&O BlueCon, mit dem sich ein nicht mehr startfähiges Windows-System von USB-Stick oder auch via Netzwerk reparieren lässt. [mehr]

Tipps & Tools

Download der Woche: RegCool [8.04.2020]

Administratoren arbeiten regelmäßig mit dem Registrierungseditor, um Systemdienste und -prozesse zu verwalten. Eine Alternative zum Windows-eigenen Regedit bietet das Tool "RegCool". Das Programm liefert die komplette Funktionalität des Regedit, fügt aber viele Ergänzungen hinzu. Unter anderem lässt sich ein Backup der Registry anlegen sowie Registrierungsschlüssel suchen und ersetzen oder mit Notizen versehen. [mehr]

Jetzt erhältlich: Sonderheft Clientmanagement [6.04.2020]

Das IT-Administrator Sonderheft 2020 "Clientmanagement - Stationäre und mobile Rechner administrieren und absichern" versorgt Administratoren mit Strategien und praktischem Wissen rund um die Verwaltung der Endgeräte im Unternehmen. Wir zeigen, worauf IT-Verantwortliche bei der Beschaffung sowie der Einführung von Clientmanagementwerkzeugen achten müssen. Weiterhin betrachten wir Sicherheitskonzepte für mobile wie stationäre Clients sowie das Management der Anwendungen auf den Clients. Das Sonderheft ist ab sofort versandbereit. [mehr]

Buchbesprechung

Technik der IP-Netze

von Anatol Badach und Erwin Hoffmann

Anzeigen