Fachartikel

Gefährdungspotenzial von KI-basierter Malware

Eines der auffälligsten Probleme der Cybersicherheitsbranche ist, dass Angreifer oft in der Lage sind, Verteidigern scheinbar mühelos einen Schritt voraus zu sein. Die grundsätzlichen Ursachen sind hier meist technischer Natur. Bestes Beispiel sind Softwareschwachstellen, die Cyberkriminelle in der Regel vor Anbietern und ihren Kunden aufdecken. Gegen dieses sogenannte Zero-Day-Phänomen bei vielen bekannten Cyberattacken sind selbst Sicherheitsexperten nahezu machtlos. Wir diskutieren, welche Gefahr vor allem von KI-basierter Malware ausgeht.
KI-basierte Systeme ließen sich auch für Cyberattacken verwenden – und zu deren Abwehr.
Gerade Unternehmen, die mit der Komplexität neuer Technologien zu kämpfen haben, machen Fehler und lassen unbeabsichtigt gefährdete Ports und Services ungeschützt. Ein besonders drastisches Beispiel dafür sind Tools und Infrastrukturen, die Organisationen eigentlich dabei helfen sollten, sich zu verteidigen (zum Beispiel Shodan, aber auch zahlreiche Werkzeuge zum Penetration Testing), sich mittlerweile aber genauso von Angreifern, die in Netzwerke eindringen, gegen Unternehmen einsetzen lassen. Hinzu kommt, dass moderne Malware derart vielseitig auftreten kann, dass Angreifer fast unaufhaltsam erscheinen. So betonen selbst Sicherheitsanbieter zunehmend die Notwendigkeit, Angriffe nicht zu blockieren, sondern stattdessen so schnell wie möglich auf diese zu reagieren.

Der KI-Gegenangriff
Vor einigen Jahren gingen einige, meist in den USA ansässige, Start-ups mit einer mutigen neuen Idee zu einer Art Gegenangriff über – auf künstliche Intelligenz gestützte Machine-Learning-(ML)-Security durch Algorithmen. Im Zeitalter von Big Data kann diese Herangehensweise durchaus sinnvoll sein, die Idee wurde deshalb auch von verschiedenen Systemen zur Bekämpfung von Spam sowie Malware, zur Bedrohungsanalyse und -aufklärung sowie zur Automatisierung des Security Operations Center aufgegriffen – nicht zuletzt als Ausgleich gegen Fachkräftemangel.

Auch wenn dies durchaus nützliche Fortschritte sind, bezeichnen manche diesen Ansatz als ultimatives Beispiel für Technologie als "Black Box", die niemand wirklich versteht. Woher wissen wir, dass Machine Learning in der Lage ist, neue und unbekannte Angriffstypen zu erkennen, die herkömmliche Systeme nicht erkennen? Nur weil die Produktbroschüre dies sagt?

Und weiter – was sollte Angreifer davon abhalten, das defensive ML mit einem noch besseren ML zu überlisten? Wenn dies auch nur in wenigen Fällen möglich wäre, stehen wir wieder komplett am Anfang. Das alles ist jedoch natürlich reine Spekulation, denn bisher ließ sich kein Einsatz von KI in einem Cyberangriff nachweisen. Unser Verständnis davon, wie es funktionieren könnte, basiert bislang weitgehend auf akademischer Forschung wie IBMs Proof-of-Concept "DeepLocker Malware Project".

So könnte bösartiges ML aussehen
Derartige Bedrohungspotenziale sollten IT-Verantwortliche rechtzeitig in den Blick nehmen. Angreifer sind darauf angewiesen, schnell erkennen zu können, welche Attacken funktionieren, etwa beim Versenden von Spam, Phishing und zunehmend auch politischer Desinformation. Es ist vorstellbar, dass Big-Data-Ansätze mit Unterstützung durch ML die Effizienz dieser Bedrohungen massiv steigern könnten, zum Beispiel durch eine Analyse, wie die Ziele darauf reagieren, und sich dann in Echtzeit entsprechend anzupassen. Dies impliziert die Möglichkeit, dass solche Kampagnen in nicht allzu ferner Zukunft in wenigen Stunden oder Minuten weiterentwickelt werden könnten. Das zeitnahe Bekämpfen mit heutigen Technologien würde dann extrem schwer fallen.

Ein zweites denkbares Szenario wäre, dass Cyberkriminelle die Schutzmaßnahmen eines Ziels mit eigenem ML simulieren könnten, um die Erfolgsaussichten verschiedener Angriffe zu messen (eine Technik, die bereits routinemäßig zur Umgehung von Antivirenprogrammen zum Einsatz kommt). Auch hier wird der Vorteil genutzt, dass Angreifer immer ein genaues Ziel im Blick haben, während sich Verteidiger auf Schätzungen verlassen müssen.

Höchstwahrscheinlich könnte ML zudem einfach dazu Verwendung finden, weit größere Mengen an neuer und individueller Malware zu generieren, als es heute möglich ist. Auf welchen dieser Ansätze auch immer die Wahl fällt – und dies sind nur Beispiele für die Möglichkeiten – es ist deutlich zu sehen, wie schwierig es wäre, sich gegen selbst relativ einfache ML-basierte Angriffe zu wehren. Der einzige Trost wäre, dass wenn ML-basierte KI wirklich eine Black Box ist, die niemand versteht, sogar Angreifer sie per Definition nicht verstehen und Zeit mit Experimenten verschwenden.
Unbeabsichtigte Folgen möglich
Trotzdem sollten wir uns gerade deswegen vor dem Blackbox-Effekt in Acht nehmen. Zum einen besteht bei ML-basierter Malware die Gefahr, dass sie Ungewolltes bewirkt, insbesondere beim Angriff auf kritische Infrastrukturen. Dieses Phänomen ist bereits bei Nicht-AI-Malware aufgetreten – Stuxnet im Jahr 2010 und NotPetya im Jahr 2017 sind bekannte Beispiele. In beiden Fällen wurden Tausende von Organisationen infiziert, die nicht auf der ursprünglichen Zielliste standen, nachdem sich die Malware unkontrolliert verbreitet hatte. Wenn Malware gleich mehrere Zero-Day-Exploits nutzt, gibt es kaum eine Chance darauf, sie wirksam einzugrenzen. Nach der Veröffentlichung bleibt diese Art von Malware pathogen gefährlich, bis jedes System, das sie infizieren könnte, gepatcht oder offline genommen wird, was Jahre oder Jahrzehnte dauern kann.

Da Fachwissen zum Verständnis von ML bislang rar ist, besteht zudem die Gefahr, dass sich Sicherheitsexperten darauf verlassen, ohne die Grenzen des Ansatzes vollständig zu verstehen. Dies betrifft sowohl die Verteidigungsmöglichkeiten als auch eine Überschätzung von Angriffspotenzialen. Das könnte dazu führen, dass Unternehmen zu viel an falscher Stelle investieren und Marketingversprechen glauben, die am Ende Ressourcen verbrauchen, die sich an anderer Stelle besser einsetzen ließen. Eine realistischere Bewertung könnte ML dagegen als weiteres Werkzeug einstufen, das gut darin ist, sehr spezifische Probleme zu lösen.

Ein gut entwickeltes ML-System, das auf einem umfangreichen und vielfältigen Datensatz basiert, kann ein nützliches Werkzeug sein, um neue Varianten von Malware zu erkennen, zum Beispiel neue Zero-Day-Angriffe und Anomalien im Netzwerkverkehr. Es kann die Notwendigkeit der Entwicklung von Use-Case-Skripten reduzieren, die beim SIEM (Security Information and Event Management) zum Einsatz kommen, um bekannte bösartige Aktivitäten zu erkennen. Seinen Hauptnutzen könnte es jedoch als Screening-Tool haben, um offensichtliche Störungen des Datenverkehrs zu eliminieren, so wie es Antivirenprogramme heute tun. Andere Tools oder Analytiker haben damit die Möglichkeit, sich auf weitere Aufgaben konzentrieren zu können.

Fazit
Die zunächst widersprüchlich klingende Schlussfolgerung ist, dass ML und KI im Bereich IT-Sicherheit vielleicht überhaupt keinen grundlegenden Unterschied machen. Sie stellen lediglich eine weitere Station in der Entwicklung der Computersicherheit seit Beginn der digitalen Zeitrechnung dar. Hier gilt es, Vorurteile dahingehend abzubauen, was diese überhaupt bewirken können. Vor allem müssen Unternehmen die Tendenz überwinden, ML und KI als geheimnisvoll "anders" zu betrachten, weil sie sie nicht verstehen und es daher schwierig finden, das Konzept von Maschinen, die komplexe Entscheidungen treffen, zu akzeptieren.

Auch mit der heutigen Pre-ML-Technologie sind Angreifer bereits in der Lage, tief in Netzwerke einzudringen. Heute werden sie dabei bereits von gut vorbereiteten Verteidigern regelmäßig mit der gleichen Technologie aufgehalten. KI erinnert uns daran, ist, dass es letztendlich darauf ankommt, wie IT-Experten Organisationen verteidigen, nicht ob sie oder ihre Angreifer ML und KI verwenden oder nicht.
16.10.2019/ln/Steve Rymell, Leiter Technologie bei Airbus CyberSecurity

Nachrichten

WLAN in Gefahr [10.08.2020]

ESET-Forscher haben Sicherheitslücken in Geräten mit WiFi-Chips der Hersteller Qualcomm und MediaTek entdeckt. Hacker können diese Schwachstellen (CVE-2020-3702) ausnutzen, um den eigentlich verschlüsselten WLAN-Verkehr mitzulesen oder eigene Datenpakete einzuschleusen. Nach aktuellen Erkenntnissen handelt es sich um Router der bekannten Firmen D-Link und Asus. Doch nicht nur Router sonder auch Microsoft Azure Sphere, eine spezielle IoT-Umgebung für Unternehmen, ist betroffen. Das Development Kit für Azure Sphere hat einen MediaTek-Chip verbaut, der auch diese Schwachstelle aufweist.  [mehr]

Android-Smartphones gefährdet [7.08.2020]

Check Point hat nach eigenen Angaben mehrere Sicherheitslücken im Code von Qualcomms "Digital Signal Processor" (DSP) gefunden – einem Chip, der in fast 40 Prozent aller Smartphones weltweit verbaut ist. Sie sehen darin eine Bedrohung, die über Monate oder Jahre bestehen könnte, weil die Behebung kompliziert sei. [mehr]

Tipps & Tools

SUSE übernimmt Rancher Labs [17.07.2020]

SUSE hat mit dem US-Open-Source-Unternehmen Rancher Labs den Anbieter einer marktführenden Kubernetes-Managementplattform akquiriert. Rancher Labs' Plattform ist für die Verwaltung sehr großer Kubernetes-Installationen ausgelegt und unterstützt dabei auch Multiclouds. [mehr]

vCenter-Zertifikat austauschen [7.06.2020]

Jede vCenter-Serverinstanz hat nach der Installation ein selbst ausgestelltes Zertifikat. Sobald die Website der vCSA aufgerufen wird, erscheint eine Warnung bezüglich der Sicherheit. Um dies zu verhindern, können Sie entweder das Root-Zertifikat herunterladen und in den vertrauenswürdigen Speicher installieren oder das Machine-Zertifikat gegen ein eigenes ersetzen. Unser Tipp zeigt, wie das funktioniert.  [mehr]

Buchbesprechung

Microsoft Office 365

von Markus Widl

Anzeigen