Fachartikel

Gefährdungspotenzial von KI-basierter Malware

Eines der auffälligsten Probleme der Cybersicherheitsbranche ist, dass Angreifer oft in der Lage sind, Verteidigern scheinbar mühelos einen Schritt voraus zu sein. Die grundsätzlichen Ursachen sind hier meist technischer Natur. Bestes Beispiel sind Softwareschwachstellen, die Cyberkriminelle in der Regel vor Anbietern und ihren Kunden aufdecken. Gegen dieses sogenannte Zero-Day-Phänomen bei vielen bekannten Cyberattacken sind selbst Sicherheitsexperten nahezu machtlos. Wir diskutieren, welche Gefahr vor allem von KI-basierter Malware ausgeht.
KI-basierte Systeme ließen sich auch für Cyberattacken verwenden – und zu deren Abwehr.
Gerade Unternehmen, die mit der Komplexität neuer Technologien zu kämpfen haben, machen Fehler und lassen unbeabsichtigt gefährdete Ports und Services ungeschützt. Ein besonders drastisches Beispiel dafür sind Tools und Infrastrukturen, die Organisationen eigentlich dabei helfen sollten, sich zu verteidigen (zum Beispiel Shodan, aber auch zahlreiche Werkzeuge zum Penetration Testing), sich mittlerweile aber genauso von Angreifern, die in Netzwerke eindringen, gegen Unternehmen einsetzen lassen. Hinzu kommt, dass moderne Malware derart vielseitig auftreten kann, dass Angreifer fast unaufhaltsam erscheinen. So betonen selbst Sicherheitsanbieter zunehmend die Notwendigkeit, Angriffe nicht zu blockieren, sondern stattdessen so schnell wie möglich auf diese zu reagieren.

Der KI-Gegenangriff
Vor einigen Jahren gingen einige, meist in den USA ansässige, Start-ups mit einer mutigen neuen Idee zu einer Art Gegenangriff über – auf künstliche Intelligenz gestützte Machine-Learning-(ML)-Security durch Algorithmen. Im Zeitalter von Big Data kann diese Herangehensweise durchaus sinnvoll sein, die Idee wurde deshalb auch von verschiedenen Systemen zur Bekämpfung von Spam sowie Malware, zur Bedrohungsanalyse und -aufklärung sowie zur Automatisierung des Security Operations Center aufgegriffen – nicht zuletzt als Ausgleich gegen Fachkräftemangel.

Auch wenn dies durchaus nützliche Fortschritte sind, bezeichnen manche diesen Ansatz als ultimatives Beispiel für Technologie als "Black Box", die niemand wirklich versteht. Woher wissen wir, dass Machine Learning in der Lage ist, neue und unbekannte Angriffstypen zu erkennen, die herkömmliche Systeme nicht erkennen? Nur weil die Produktbroschüre dies sagt?

Und weiter – was sollte Angreifer davon abhalten, das defensive ML mit einem noch besseren ML zu überlisten? Wenn dies auch nur in wenigen Fällen möglich wäre, stehen wir wieder komplett am Anfang. Das alles ist jedoch natürlich reine Spekulation, denn bisher ließ sich kein Einsatz von KI in einem Cyberangriff nachweisen. Unser Verständnis davon, wie es funktionieren könnte, basiert bislang weitgehend auf akademischer Forschung wie IBMs Proof-of-Concept "DeepLocker Malware Project".

So könnte bösartiges ML aussehen
Derartige Bedrohungspotenziale sollten IT-Verantwortliche rechtzeitig in den Blick nehmen. Angreifer sind darauf angewiesen, schnell erkennen zu können, welche Attacken funktionieren, etwa beim Versenden von Spam, Phishing und zunehmend auch politischer Desinformation. Es ist vorstellbar, dass Big-Data-Ansätze mit Unterstützung durch ML die Effizienz dieser Bedrohungen massiv steigern könnten, zum Beispiel durch eine Analyse, wie die Ziele darauf reagieren, und sich dann in Echtzeit entsprechend anzupassen. Dies impliziert die Möglichkeit, dass solche Kampagnen in nicht allzu ferner Zukunft in wenigen Stunden oder Minuten weiterentwickelt werden könnten. Das zeitnahe Bekämpfen mit heutigen Technologien würde dann extrem schwer fallen.

Ein zweites denkbares Szenario wäre, dass Cyberkriminelle die Schutzmaßnahmen eines Ziels mit eigenem ML simulieren könnten, um die Erfolgsaussichten verschiedener Angriffe zu messen (eine Technik, die bereits routinemäßig zur Umgehung von Antivirenprogrammen zum Einsatz kommt). Auch hier wird der Vorteil genutzt, dass Angreifer immer ein genaues Ziel im Blick haben, während sich Verteidiger auf Schätzungen verlassen müssen.

Höchstwahrscheinlich könnte ML zudem einfach dazu Verwendung finden, weit größere Mengen an neuer und individueller Malware zu generieren, als es heute möglich ist. Auf welchen dieser Ansätze auch immer die Wahl fällt – und dies sind nur Beispiele für die Möglichkeiten – es ist deutlich zu sehen, wie schwierig es wäre, sich gegen selbst relativ einfache ML-basierte Angriffe zu wehren. Der einzige Trost wäre, dass wenn ML-basierte KI wirklich eine Black Box ist, die niemand versteht, sogar Angreifer sie per Definition nicht verstehen und Zeit mit Experimenten verschwenden.
Unbeabsichtigte Folgen möglich
Trotzdem sollten wir uns gerade deswegen vor dem Blackbox-Effekt in Acht nehmen. Zum einen besteht bei ML-basierter Malware die Gefahr, dass sie Ungewolltes bewirkt, insbesondere beim Angriff auf kritische Infrastrukturen. Dieses Phänomen ist bereits bei Nicht-AI-Malware aufgetreten – Stuxnet im Jahr 2010 und NotPetya im Jahr 2017 sind bekannte Beispiele. In beiden Fällen wurden Tausende von Organisationen infiziert, die nicht auf der ursprünglichen Zielliste standen, nachdem sich die Malware unkontrolliert verbreitet hatte. Wenn Malware gleich mehrere Zero-Day-Exploits nutzt, gibt es kaum eine Chance darauf, sie wirksam einzugrenzen. Nach der Veröffentlichung bleibt diese Art von Malware pathogen gefährlich, bis jedes System, das sie infizieren könnte, gepatcht oder offline genommen wird, was Jahre oder Jahrzehnte dauern kann.

Da Fachwissen zum Verständnis von ML bislang rar ist, besteht zudem die Gefahr, dass sich Sicherheitsexperten darauf verlassen, ohne die Grenzen des Ansatzes vollständig zu verstehen. Dies betrifft sowohl die Verteidigungsmöglichkeiten als auch eine Überschätzung von Angriffspotenzialen. Das könnte dazu führen, dass Unternehmen zu viel an falscher Stelle investieren und Marketingversprechen glauben, die am Ende Ressourcen verbrauchen, die sich an anderer Stelle besser einsetzen ließen. Eine realistischere Bewertung könnte ML dagegen als weiteres Werkzeug einstufen, das gut darin ist, sehr spezifische Probleme zu lösen.

Ein gut entwickeltes ML-System, das auf einem umfangreichen und vielfältigen Datensatz basiert, kann ein nützliches Werkzeug sein, um neue Varianten von Malware zu erkennen, zum Beispiel neue Zero-Day-Angriffe und Anomalien im Netzwerkverkehr. Es kann die Notwendigkeit der Entwicklung von Use-Case-Skripten reduzieren, die beim SIEM (Security Information and Event Management) zum Einsatz kommen, um bekannte bösartige Aktivitäten zu erkennen. Seinen Hauptnutzen könnte es jedoch als Screening-Tool haben, um offensichtliche Störungen des Datenverkehrs zu eliminieren, so wie es Antivirenprogramme heute tun. Andere Tools oder Analytiker haben damit die Möglichkeit, sich auf weitere Aufgaben konzentrieren zu können.

Fazit
Die zunächst widersprüchlich klingende Schlussfolgerung ist, dass ML und KI im Bereich IT-Sicherheit vielleicht überhaupt keinen grundlegenden Unterschied machen. Sie stellen lediglich eine weitere Station in der Entwicklung der Computersicherheit seit Beginn der digitalen Zeitrechnung dar. Hier gilt es, Vorurteile dahingehend abzubauen, was diese überhaupt bewirken können. Vor allem müssen Unternehmen die Tendenz überwinden, ML und KI als geheimnisvoll "anders" zu betrachten, weil sie sie nicht verstehen und es daher schwierig finden, das Konzept von Maschinen, die komplexe Entscheidungen treffen, zu akzeptieren.

Auch mit der heutigen Pre-ML-Technologie sind Angreifer bereits in der Lage, tief in Netzwerke einzudringen. Heute werden sie dabei bereits von gut vorbereiteten Verteidigern regelmäßig mit der gleichen Technologie aufgehalten. KI erinnert uns daran, ist, dass es letztendlich darauf ankommt, wie IT-Experten Organisationen verteidigen, nicht ob sie oder ihre Angreifer ML und KI verwenden oder nicht.
16.10.2019/ln/Steve Rymell, Leiter Technologie bei Airbus CyberSecurity

Nachrichten

Deutliche Zunahme von DDoS-Angriffen [11.11.2019]

Im dritten Quartal 2019 stieg die Anzahl der DDoS-Angriffe gegenüber dem Vorquartal um 30 Prozent an. Zu diesem Schluss kommt eine Untersuchung von Kaspersky Lab. 53 Prozent der Attacken fanden demnach im September statt. Darüber hinaus gab es einen Anstieg einfacherer DDoS-Angriffe, die vor allem akademische Webseiten im Visier hatten. [mehr]

Emotet wird zur globalen Bedrohung [8.11.2019]

Die Schadsoftware Emotet etabliert sich als globale Bedrohung. Zu diesem Schluss kommt Proofpoint in seinem Threat Report für das dritte Quartal 2019. Besonders auffällig ist dabei, dass die Schadsoftware Emotet allein bei 12 Prozent aller E-Mails mit Malware im Anhang zum Einsatz kam – obwohl Emotet nur in den letzten beiden Wochen des Septembers nennenswert aktiv war. Das heißt demnach, dass in diesem kurzen Zeitraum mehrere Millionen von Nachrichten mit bösartigen URLs oder Anhängen versandt wurden. [mehr]

Tipps & Tools

Vorschau November 2019: Container & Anwendungsserver [21.10.2019]

Das Bereitstellen von Anwendungen ist eine zentrale Administrationsaufgabe und Fehler hierbei fallen Mitarbeitern wie Kunden unmittelbar auf. Eine wichtige Rolle spielt das Fundament für Applikationen, die Serverlandschaft. In der November-Ausgabe beleuchtet IT-Administrator das Thema "Container & Anwendungsserver". Darin lesen Sie etwa, welche Best Practices Sie bei Microsofts IIS nutzen sollten und wie Sie Container-Logdaten mit Fluentbit auswerten. Außerdem werfen wir einen Blick auf die Orchestrierung von Containern und die Kubernetes-Alternative Nomad. In den Tests tritt der Solarwinds Server & Application Monitor an. [mehr]

VPC richtig konfigurieren [18.08.2019]

Wenn Sie eine Virtual Private Cloud für die Verwendung mit Amazon Aurora anlegen, ist es wichtig diese richtig zu konfigurieren. Grundsätzlich muss eine Virtual Private Cloud (VPC), die einen Amazon-Aurora-DB-Cluster enthält, mindestens zwei Availability Zones (AZ) umfassen. Jede AZ muss außerdem mindestens ein Subnetz bereithalten. Für das folgende Beispielszenario melden Sie sich in der AWS Management Console an und öffnen dort die VPC-Konsole. [mehr]

Buchbesprechung

Windows Server 2019

von Peter Kloep, Karsten Weigel, Kevin Momber, Raphael Rojas und Annette Frankl

Anzeigen