Grundlagen von KI und ML

Lesezeit
2 Minuten
Bis jetzt gelesen

Grundlagen von KI und ML

15.08.2018 - 14:00
Veröffentlicht in:
Seit mehreren Monaten sind die Begriffe "künstliche Intelligenz" (KI) und "maschinelles Lernen" (ML) in aller Munde. Dabei scheint allerdings oft nicht so recht klar, was die Begriffe eigentlich bedeuten, worin sie sich unterscheiden und wie die heutigen Einsatzmöglichkeiten in der Praxis aussehen. Was sind die Ursprünge, wodurch grenzen sich die Begriffe ab und welche Prozesse stecken genau dahinter? Der Fachbeitrag wirft einen Blick hinter die Marketing-Kulissen.
Ein Blick einige Jahrzehnte zurück in der Wissenschaftsgeschichte zeigt, wie die Begriffe "künstliche Intelligenz" (KI) und "maschinelles Lernen" (ML) entstanden sind und wie sich entsprechende Technologien weiterentwickelt haben.

Geburt und Evolution der maschinellen Intelligenz
1936 konstruierte der britische Mathematiker Alan Turing eine theoretische Maschine, die später als Modell für moderne digitale Computer dienen sollte und heute als Turing Machine, kurz TM, bekannt ist. Seine wichtigste Erkenntnis war, dass alles, was durch einen Algorithmus darstellbar war, auch von einer solchen Maschine berechnet werden konnte. Noch eindrucksvoller zeigte Turing auf, dass es möglich ist, eine Universal Turing Machine (UTM) zu konstruieren. Die UTM, mit einem gespeicherten Programm, war zum Teil die Inspiration für John von Neumanns Entwicklung einer Architektur für den ersten modernen digitalen Computer.

In dem 1950 erschienenen Artikel "Computing Machinery and Intelligence" beschrieb Turing seinen Test der maschinellen Intelligenz, der heute als Turing-Test bekannt ist. Turing kam zu dem Schluss, dass wenn sich die Antworten eines Computers nicht von den Antworten einer Person unterscheiden ließen, dieser Computer als "intelligent" zu betrachten sei. Dies ließe sich daran feststellen, wie gut die Maschine das Verhalten eines Menschen nachahmen und einen Beobachter dazu bringen kann, zu glauben, dass sie auch ein Mensch ist.

Turing war sicherlich der Geburtshelfer der maschinellen Intelligenz, der Begriff "künstliche Intelligenz" tauchte jedoch erst später auf. Der Fortschritt in der KI hat verschiedene Techniken kommen und gehen gesehen und verlief parallel zum wissenschaftlichen Interesse an neuronalen Netzen, das in bislang drei Wellen verlief.

Neuronale Netze im Fokus der Wissenschaft
Die erste Welle, von den 1940er bis 1960er Jahren, begann mit der Erfindung der künstlichen neuronalen Netze durch McCullough und Pitts. Deren Modell hat jedoch die Struktur und Funktion der menschlichen Neuronen stark vereinfacht und es konnte nicht lernen oder sich anpassen. Der Ansatz inspirierte jedoch John von Neumanns Computerarchitektur und war eine große Inspiration für die Forscher, die schließlich den Begriff der "künstlichen Intelligenz" einführten.

Der Begriff wurde erstmals 1955 von John McCarthy geprägt und setzte sich tatsächlich gegen Alternativen wie "Maschinenintelligenz", "Denkmaschinen" und "Kybernetik" durch. 1956 folgte ein bedeutendes Seminar zur künstlichen Intelligenz am Dartmouth College, der sogenannte Dartmouth Workshop. Eine Gruppe von zehn Forschern mit unterschiedlichem Hintergrund, darunter McCarthy, beschäftigte sich mit verschiedenen Konzepten zum Thema.

Das Konzept der neuronalen Netze wurde auf die Entwicklung des Perzeptrons ausgedehnt. Das Perzeptron war ein von Frank Rosenblatt 1957 entwickeltes vereinfachtes künstliches neuronales Netzwerk, das sich anpassen und lernen konnte und zu einfachen Formen der optischen Zeichenerkennung fähig war. Trotz der vielversprechenden Forschung wurden die Fähigkeiten der neuronalen Netze entzaubert, als Marvin Minsky, eigentlich ein früher Verfechter neuronaler Netze, und Seymour Papert 1969 ihr Buch mit dem Titel "Perceptrons" veröffentlichten. Der "KI-Winter" setzte ein.

"KI-Winter" gegen Ende des 20. Jahrhunderts
Die folgende Zeit in den 70er-Jahren verlief unspektakulär, größere Fortschritte blieben aus wegen der begrenzten Rechenleistung und der Knappheit an Daten, mit denen sich Modelle trainieren ließen. Es dauerte bis Ende der 90er, Anfang der 2000er Jahre, bis die zweite Welle des Interesses an neuronalen Netzen einsetzte. Entwicklungen wie das 1997 von Hochreiter und Schmidhuber entwickelte Langzeiterinnerungsmodell (LSTM) sowie die von Geoffrey Hinton 2006 eingeführten Deep Belief Networks (DBNs) zeigten, wie sich einige Einschränkungen früherer Modelle überwinden ließen.

In Verbindung mit zunehmender Rechenleistung und Grafikprozessoren (GPUs) in den letzten Jahren, parallel mit der ständig steigenden Datenverfügbarkeit, konnten die Fehlerquoten für gängige maschinelle Lernaufgaben drastisch verbessert werden. Die gegenwärtige Deep-Learning-Revolution hat somit die dritte Popularitätswelle der neuronalen Netze eingeläutet.

Die plötzlichen Fortschritte, die durch neuronale Netze in den Bereichen Spracherkennung, maschinelles Sehen und natürliche Sprachverarbeitung erzielt wurden, zeigen bereits weitreichende Auswirkungen. Google, Facebook, Microsoft und andere große Unternehmen haben ein starkes Interesse an der Verarbeitung von Sprach-, Bild- und Textdaten. Sie investierten in den letzten Jahren erhebliche Mittel in Forschung und Entwicklung, was den KI-Fortschritt beschleunigte.

Seite 1: Geburt und Evolution der maschinellen Intelligenz


Seite 1 von 2 Nächste Seite >>


ln/Gérard Bauer, Vice President EMEA bei Vectra Networks

Ähnliche Beiträge

Im Test: Heimdal Patch & Asset Management

Ein zeitgemäßes Patchmanagement darf sich angesichts der vielfältigen Bedrohungen nicht allein auf die Microsoft-Produkte konzentrieren, sondern muss sich auch verbreiteten Drittanbieteranwendungen widmen. Der dänische Anbieter Heimdal Security geht noch einen Schritt weiter und hat eine ganze Suite zum Schutz vor Cyberbedrohungen im Programm. Mit dem Fokus auf das Patchen haben wir uns das cloudbasierte Angebot genauer angesehen.

Device-Management mit Microsoft Intune und Office 365 - Zwei Wege, ein Ziel

Um Geräte im Netzwerk oder mobile Geräte, die auf das Netzwerk zugreifen, zu verwalten, bietet sich für Unternehmen entweder Office 365 Mobile Device Management oder Microsoft Intune an. Ein Unterschied zwischen den beiden Lösungen besteht vor allem im Preis. Während das Device-Management zu vielen Abonnements in Office 365 gehört, muss Microsoft Intune gesondert abonniert werden. In diesem Beitrag stellen wir beide Ansätze vor.