Gefährdungspotenzial von KI-basierter Malware

Lesezeit
4 Minuten
Bis jetzt gelesen

Gefährdungspotenzial von KI-basierter Malware

16.10.2019 - 14:00
Veröffentlicht in:
Eines der auffälligsten Probleme der Cybersicherheitsbranche ist, dass Angreifer oft in der Lage sind, Verteidigern scheinbar mühelos einen Schritt voraus zu sein. Die grundsätzlichen Ursachen sind hier meist technischer Natur. Bestes Beispiel sind Softwareschwachstellen, die Cyberkriminelle in der Regel vor Anbietern und ihren Kunden aufdecken. Gegen dieses sogenannte Zero-Day-Phänomen bei vielen bekannten Cyberattacken sind selbst Sicherheitsexperten nahezu machtlos. Wir diskutieren, welche Gefahr vor allem von KI-basierter Malware ausgeht.
Gerade Unternehmen, die mit der Komplexität neuer Technologien zu kämpfen haben, machen Fehler und lassen unbeabsichtigt gefährdete Ports und Services ungeschützt. Ein besonders drastisches Beispiel dafür sind Tools und Infrastrukturen, die Organisationen eigentlich dabei helfen sollten, sich zu verteidigen (zum Beispiel Shodan, aber auch zahlreiche Werkzeuge zum Penetration Testing), sich mittlerweile aber genauso von Angreifern, die in Netzwerke eindringen, gegen Unternehmen einsetzen lassen. Hinzu kommt, dass moderne Malware derart vielseitig auftreten kann, dass Angreifer fast unaufhaltsam erscheinen. So betonen selbst Sicherheitsanbieter zunehmend die Notwendigkeit, Angriffe nicht zu blockieren, sondern stattdessen so schnell wie möglich auf diese zu reagieren.

Der KI-Gegenangriff
Vor einigen Jahren gingen einige, meist in den USA ansässige, Start-ups mit einer mutigen neuen Idee zu einer Art Gegenangriff über – auf künstliche Intelligenz gestützte Machine-Learning-(ML)-Security durch Algorithmen. Im Zeitalter von Big Data kann diese Herangehensweise durchaus sinnvoll sein, die Idee wurde deshalb auch von verschiedenen Systemen zur Bekämpfung von Spam sowie Malware, zur Bedrohungsanalyse und -aufklärung sowie zur Automatisierung des Security Operations Center aufgegriffen – nicht zuletzt als Ausgleich gegen Fachkräftemangel.

Auch wenn dies durchaus nützliche Fortschritte sind, bezeichnen manche diesen Ansatz als ultimatives Beispiel für Technologie als "Black Box", die niemand wirklich versteht. Woher wissen wir, dass Machine Learning in der Lage ist, neue und unbekannte Angriffstypen zu erkennen, die herkömmliche Systeme nicht erkennen? Nur weil die Produktbroschüre dies sagt?

Und weiter – was sollte Angreifer davon abhalten, das defensive ML mit einem noch besseren ML zu überlisten? Wenn dies auch nur in wenigen Fällen möglich wäre, stehen wir wieder komplett am Anfang. Das alles ist jedoch natürlich reine Spekulation, denn bisher ließ sich kein Einsatz von KI in einem Cyberangriff nachweisen. Unser Verständnis davon, wie es funktionieren könnte, basiert bislang weitgehend auf akademischer Forschung wie IBMs Proof-of-Concept "DeepLocker Malware Project".

So könnte bösartiges ML aussehen
Derartige Bedrohungspotenziale sollten IT-Verantwortliche rechtzeitig in den Blick nehmen. Angreifer sind darauf angewiesen, schnell erkennen zu können, welche Attacken funktionieren, etwa beim Versenden von Spam, Phishing und zunehmend auch politischer Desinformation. Es ist vorstellbar, dass Big-Data-Ansätze mit Unterstützung durch ML die Effizienz dieser Bedrohungen massiv steigern könnten, zum Beispiel durch eine Analyse, wie die Ziele darauf reagieren, und sich dann in Echtzeit entsprechend anzupassen. Dies impliziert die Möglichkeit, dass solche Kampagnen in nicht allzu ferner Zukunft in wenigen Stunden oder Minuten weiterentwickelt werden könnten. Das zeitnahe Bekämpfen mit heutigen Technologien würde dann extrem schwer fallen.

Ein zweites denkbares Szenario wäre, dass Cyberkriminelle die Schutzmaßnahmen eines Ziels mit eigenem ML simulieren könnten, um die Erfolgsaussichten verschiedener Angriffe zu messen (eine Technik, die bereits routinemäßig zur Umgehung von Antivirenprogrammen zum Einsatz kommt). Auch hier wird der Vorteil genutzt, dass Angreifer immer ein genaues Ziel im Blick haben, während sich Verteidiger auf Schätzungen verlassen müssen.

Höchstwahrscheinlich könnte ML zudem einfach dazu Verwendung finden, weit größere Mengen an neuer und individueller Malware zu generieren, als es heute möglich ist. Auf welchen dieser Ansätze auch immer die Wahl fällt – und dies sind nur Beispiele für die Möglichkeiten – es ist deutlich zu sehen, wie schwierig es wäre, sich gegen selbst relativ einfache ML-basierte Angriffe zu wehren. Der einzige Trost wäre, dass wenn ML-basierte KI wirklich eine Black Box ist, die niemand versteht, sogar Angreifer sie per Definition nicht verstehen und Zeit mit Experimenten verschwenden.

Unbeabsichtigte Folgen möglich
Trotzdem sollten wir uns gerade deswegen vor dem Blackbox-Effekt in Acht nehmen. Zum einen besteht bei ML-basierter Malware die Gefahr, dass sie Ungewolltes bewirkt, insbesondere beim Angriff auf kritische Infrastrukturen. Dieses Phänomen ist bereits bei Nicht-AI-Malware aufgetreten – Stuxnet im Jahr 2010 und NotPetya im Jahr 2017 sind bekannte Beispiele. In beiden Fällen wurden Tausende von Organisationen infiziert, die nicht auf der ursprünglichen Zielliste standen, nachdem sich die Malware unkontrolliert verbreitet hatte. Wenn Malware gleich mehrere Zero-Day-Exploits nutzt, gibt es kaum eine Chance darauf, sie wirksam einzugrenzen. Nach der Veröffentlichung bleibt diese Art von Malware pathogen gefährlich, bis jedes System, das sie infizieren könnte, gepatcht oder offline genommen wird, was Jahre oder Jahrzehnte dauern kann.

Da Fachwissen zum Verständnis von ML bislang rar ist, besteht zudem die Gefahr, dass sich Sicherheitsexperten darauf verlassen, ohne die Grenzen des Ansatzes vollständig zu verstehen. Dies betrifft sowohl die Verteidigungsmöglichkeiten als auch eine Überschätzung von Angriffspotenzialen. Das könnte dazu führen, dass Unternehmen zu viel an falscher Stelle investieren und Marketingversprechen glauben, die am Ende Ressourcen verbrauchen, die sich an anderer Stelle besser einsetzen ließen. Eine realistischere Bewertung könnte ML dagegen als weiteres Werkzeug einstufen, das gut darin ist, sehr spezifische Probleme zu lösen.

Ein gut entwickeltes ML-System, das auf einem umfangreichen und vielfältigen Datensatz basiert, kann ein nützliches Werkzeug sein, um neue Varianten von Malware zu erkennen, zum Beispiel neue Zero-Day-Angriffe und Anomalien im Netzwerkverkehr. Es kann die Notwendigkeit der Entwicklung von Use-Case-Skripten reduzieren, die beim SIEM (Security Information and Event Management) zum Einsatz kommen, um bekannte bösartige Aktivitäten zu erkennen. Seinen Hauptnutzen könnte es jedoch als Screening-Tool haben, um offensichtliche Störungen des Datenverkehrs zu eliminieren, so wie es Antivirenprogramme heute tun. Andere Tools oder Analytiker haben damit die Möglichkeit, sich auf weitere Aufgaben konzentrieren zu können.

Fazit
Die zunächst widersprüchlich klingende Schlussfolgerung ist, dass ML und KI im Bereich IT-Sicherheit vielleicht überhaupt keinen grundlegenden Unterschied machen. Sie stellen lediglich eine weitere Station in der Entwicklung der Computersicherheit seit Beginn der digitalen Zeitrechnung dar. Hier gilt es, Vorurteile dahingehend abzubauen, was diese überhaupt bewirken können. Vor allem müssen Unternehmen die Tendenz überwinden, ML und KI als geheimnisvoll "anders" zu betrachten, weil sie sie nicht verstehen und es daher schwierig finden, das Konzept von Maschinen, die komplexe Entscheidungen treffen, zu akzeptieren.

Auch mit der heutigen Pre-ML-Technologie sind Angreifer bereits in der Lage, tief in Netzwerke einzudringen. Heute werden sie dabei bereits von gut vorbereiteten Verteidigern regelmäßig mit der gleichen Technologie aufgehalten. KI erinnert uns daran, ist, dass es letztendlich darauf ankommt, wie IT-Experten Organisationen verteidigen, nicht ob sie oder ihre Angreifer ML und KI verwenden oder nicht.


ln/Steve Rymell, Leiter Technologie bei Airbus CyberSecurity

Tags

Ähnliche Beiträge

Microsoft 365 Threat Intelligence verstehen und produktiv nutzen (1)

Mit Microsoft 365 Threat Intelligence können Administratoren auf Funktionen aus der Microsoft-Cloud setzen, um Angriffe zu erkennen und zu bekämpfen. Auf Basis gesammelter Daten lassen sich Vorgehensweisen erarbeiten, mit denen sich Attacken auf Netzwerke und Clouddienste verhindern lassen. Im ersten Teil der Workshopserie erklären wir die Grundlagen des Bedrohungsmanagements und was es mit dem Intelligent Security Graph auf sich hat.

Zero Trust richtig umsetzen

Zero Trust ist mittlerweile state of the art in Sachen Sicherheit. Was dabei häufig unter den Tisch fällt: Ganzheitliche Sichtbarkeit – und zwar bis auf Netzwerkebene – ist die Grundvoraussetzung für das Konzept. Ausgerechnet hier scheitern bereits viele Unternehmen. Die Folge: Blind Spots nehmen ihnen die Sicht. Erfahren Sie im Fachbeitrag, warum Deep Observability bei einer Zero-Trust-Strategie nicht fehlen darf.

Im Test: sayTEC sayTRUST VPSC

Mit VPNs stellen Administratoren den Zugriff für mobile User zur Verfügung. Jedoch ist es nicht immer gewollt, dass die Endgeräte auch zum Teil des Netzwerks werden. Zudem bringen klassische VPNs nach wie vor eine Reihe von Unzulänglichkeiten mit sich, etwa in der Verwaltung oder bei der Performance. Mit sayTECs sayTRUST VPSC steht ein anderer Weg des geschützten Zugangs offen, der im Test überzeugte.