Seite 2 - Mit maschinellem Lernen zu einer bessere Datenverwertung

Lesezeit
3 Minuten
Bis jetzt gelesen

Seite 2 - Mit maschinellem Lernen zu einer bessere Datenverwertung

22.01.2020 - 14:00
Veröffentlicht in:
Herausforderungen beim maschinellen Lernen
Embedded Machine Learning kann insbesondere Routinearbeiten viel schneller und effizienter erledigen. Dennoch gibt es einige Herausforderungen: So liefern Investitionen in KI und ML zunächst oft einen sehr niedrigen ROI (Return of Investment). Viele Unternehmen sehen in KI-Projekten eher experimentelle Wissenschaftsprojekte als eine lohnende Investition in den Kern ihrer Infrastruktur. Ein Grund dafür ist, dass der "Black Box"-Output beim Maschinellen Lernen nicht verstanden wird und deshalb kein Vertrauen in die Ergebnisse vorhanden ist. Das macht es schwierig, Entscheidungen anhand dieser Modelle zu treffen, selbst wenn sie korrekt sind. Der Mensch muss also erst lernen, Vertrauen in die Algorithmen zu fassen.

Hinzu kommt, dass das Ökosystem möglicher Tools komplex ist. Schaffen neue Werkzeuge den Sprung aus der Forschung in die Unternehmen, dann stehen plötzlich auch Fragen nach Sicherheit, Governance-Implikationen und die Suche nach qualifizierten Mitarbeitern im Raum.

Und als letzter Punkt lohnt sich ein Blick auf das Thema Daten. Data Scientists müssen große Mengen an Daten für das maschinelle Lernen zusammenstellen. Laut einem Artikel in der New York Times verbringen sie 80 Prozent ihrer Zeit damit, Daten in eine benutzbare Form zu bringen. Welche Daten sollen verwendet werden? Sind sie korrekt und vertrauenswürdig? Woher stammen sie? Enthalten sie personenbezogene Daten? Entscheidend ist in jedem Fall die Datenqualität. Ist diese unzureichend, wird sich dies deutlich auf die Ergebnisse der Abfragen auswirken.

Verbesserte Funktionsweise von Datenbanken durch ML
Daten werden am besten in einem Data Hub, einer Datenplattform, gesichert, verwaltet und zueinander in Beziehung gesetzt. Genau da, im Kern einer solchen Datenbank, sollte das maschinelle Lernen angesiedelt sein. Mit diesem Ansatz lassen sich zum einen viele Herausforderungen in puncto Governance und Vertrauen in die Datenqualität in den Griff bekommen. Gleichzeitig lässt sich so das Potenzial am besten ausschöpfen, das maschinelles Lernen bietet. KI-Prozesse können unter dem Dach einer sicheren Umgebung direkt und parallel nahe an den Daten laufen.

All das hat positive Auswirkungen darauf, wie die Datenbank funktioniert, wie Daten gepflegt und wie Modelle trainiert und durchgeführt werden. Embedded Machine Learning optimiert nicht zuletzt die Performance der Datenbank selber. So lässt sich zum Beispiel durch die Überwachung von Abfragemustern und Zugriffsplänen die Leistung zukünftiger Ausführungen verbessern, indem das System automatisch neu angepasst wird. Ein weiteres Beispiel ist die autonome Elastizität. Damit finden Modelle von Abfragemustern Verwendung, um die Regeln für das Neuverteilen von Daten oder ihrer Neuindizierung zu automatisieren.


Optimierte Datenpflege
In einem Data Hub werden Daten integriert, gespeichert und gepflegt, um deren Nutzen zu steigern. Dabei beinhaltet Datenpflege die Qualitätskontrolle, Harmonisierung, den Abgleich und die Anreicherung der Daten. Das maschinelle Lernen bietet für jeden dieser Schritte spezielle Anwendungen, die helfen, den Automatisierungsgrad zu erhöhen und die Komplexität zu reduzieren:

  • Intelligentes Mastering: Smart Mastering gleicht Daten intelligent ab und führt sie zusammen. Dies ist durchaus als Weiterführung von KI und Fuzzy-Matching zu verstehen. Mit Embedded Machine Learning wird Smart Mastering noch intelligenter, denn ML kommt zum Einsatz, um den bestehenden, regelbasierten Mastering-Prozess zu erweitern und so die Genauigkeit zu verbessern und Ausnahmen entsprechend zu verwalten.
  • Datenmodellierung: Maschinelles Lernen kann während der Modellierungsphase genutzt werden, um festzustellen, ob in bestimmten Daten personenbezogene Informationen enthalten sind und um ihren Abgleich-Algorithmus genauer zu machen (damit weniger manuelle Eingriffe notwendig werden). Außerdem unterstützt ML auch die Klassifizierung von Attributen und schlägt Mapping und Modellierungsregeln vor.
In jedem Fall erfolgt ein ständiges Training der Modelle für maschinelles Lernen. Mit anderen Worten: Je mehr Daten integriert werden, desto intelligenter wird das System. Für Datenwissenschaftler ist es jetzt einfacher, das Trainieren der Modelle mit Testdaten und das Ausführen der Modelle durchzuführen. Gartner schlägt in seinem Technical Professional Advice Paper mit dem Titel "Preparing and Architecting for Machine" Lear eine Referenzarchitektur vor, für die schon Vieles durch Embeddedd Machine Learning erfüllt ist und zwar innerhalb einer Datenbank, aufgesetzt als Data Hub.

Funktionsweise von Embedded Machine Learning
Wie funktioniert denn nun das Embedded Machine Learning genau? Was brauchen Unternehmen, um innerhalb einer Datenbank KI-Algorithmen ablaufen zu lassen? Dazu werden einige Schlüsseltechnologien integriert, die dem Datenwissenschaftler helfen, so ein System aufzusetzen, die aber für den Endanwender, der letztlich den Nutzen haben möchte, nicht von Bedeutung sind.

KI-Modelle, die mit entsprechenden Werkzeugen entwickelt wurden, sollten einfach auf andere Plattformen portierbar sein. Dazu wurde ONNX entwickelt. ONNX ist ein offenes Format, das bei vielen KI-Laufzeitumgebungen Unterstützung findet. Stellt die Datenbank die benötigte Laufzeitumgebung bereit, ergibt sich ein einfacher Workflow: Ein Data Scientist wählt aus einer Vielzahlt an möglichen Werkzeugen ein KI-Tool aus, exportiert das KI-Modell im ONNX-Format und liest es in die Datenbank ein. Unterstützt die Datenbank nun noch Nvidias CUDA (Compute Unified Device Architecture) können moderne Graphikprozessoren Verwendung finden, um die KI-Anwendung in der Datenbank sowohl auf einem Laptop als auch im Rechenzentrum hardwarebeschleunigt ablaufen zu lassen.

Fazit
KI und ML sind faszinierende Technologien und bieten zweifelsohne große Chancen, aber der Weg von der Idee zur Umsetzung muss einfach sein. Dabei hilft es, ML nicht als spezifische Technologie, sondern eher als einen Prozess zu verstehen: Die Integration der Daten in einen Data Hub, der Entwurf von Modellen, die auf den integrierten Daten operieren sollen und letztlich der Ablauf der Algorithmen direkt innerhalb der Datenbank führen dann zum Ziel. Die meisten Branchen, die mit großen Datenmengen arbeiten, haben den Wert des maschinellen Lernens erkannt. Sie können damit Erkenntnisse aus Daten ableiten – oftmals in Echtzeit – und dank dieser Erkenntnisse effizienter arbeiten oder sich Wettbewerbsvorteile verschaffen.



ln/Dr. Stefan Grotehans, Senior Director Solutions Engineering DACH bei MarkLogic Deutschland

Ähnliche Beiträge

Im Test: Heimdal Patch & Asset Management

Ein zeitgemäßes Patchmanagement darf sich angesichts der vielfältigen Bedrohungen nicht allein auf die Microsoft-Produkte konzentrieren, sondern muss sich auch verbreiteten Drittanbieteranwendungen widmen. Der dänische Anbieter Heimdal Security geht noch einen Schritt weiter und hat eine ganze Suite zum Schutz vor Cyberbedrohungen im Programm. Mit dem Fokus auf das Patchen haben wir uns das cloudbasierte Angebot genauer angesehen.

Device-Management mit Microsoft Intune und Office 365 - Zwei Wege, ein Ziel

Um Geräte im Netzwerk oder mobile Geräte, die auf das Netzwerk zugreifen, zu verwalten, bietet sich für Unternehmen entweder Office 365 Mobile Device Management oder Microsoft Intune an. Ein Unterschied zwischen den beiden Lösungen besteht vor allem im Preis. Während das Device-Management zu vielen Abonnements in Office 365 gehört, muss Microsoft Intune gesondert abonniert werden. In diesem Beitrag stellen wir beide Ansätze vor.