Cyberangriffe: Massive Zunahme bei KI-Missbrauch
Cyberkriminelle und staatlich gestützte Hackergruppen nutzen künstliche Intelligenz zunehmend für ihre Angriffe. Google dokumentiert Tausende Versuche, KI-Modelle zu klonen, sowie neue Malware-Familien, die selbst KI-APIs für ihre Zwecke missbrauchen. Besonders aktiv: Gruppen aus Nordkorea, Iran, China und Russland.
Die Google Threat Intelligence Group (GTIG) verzeichnet eine deutliche Zunahme bei der missbräuchlichen Nutzung künstlicher Intelligenz durch Cyberkriminelle und staatlich gestützte Hackergruppen. Im vierten Quartal 2025 integrierten Bedrohungsakteure zunehmend KI-Tools in ihre Angriffsketten, um Aufklärung, Social Engineering und Malware-Entwicklung zu beschleunigen. Besonders auffällig: Angreifer aus Nordkorea, Iran, China und Russland setzen Large Language Models wie Gemini mittlerweile systematisch für technische Recherchen, Zielerfassung und die Erstellung überzeugender Phishing-Köder ein. Google hat nach eigenen Angaben die mit diesen Aktivitäten verbundenen Konten und Projekte deaktiviert und seine Schutzmaßnahmen entsprechend verstärkt.
Geklonte KI-Modelle
Ein neues Phänomen stellen sogenannte "Distillation Attacks" dar, bei denen Angreifer versuchen, proprietäre KI-Modelle zu klonen. GTIG und Google DeepMind identifizierten und unterbrachen zahlreiche Versuche, über legitime API-Zugriffe systematisch Informationen aus KI-Modellen zu extrahieren. Bei einer dokumentierten Kampagne registrierte Google über 100.000 Prompts, die darauf abzielten, Geminis Reasoning-Fähigkeiten in verschiedenen Sprachen zu replizieren. Diese Form des geistigen Eigentumsdiebstahls verstößt gegen Googles Nutzungsbedingungen. Die Attacken richten sich primär gegen Modellentwickler und Serviceanbieter, weniger gegen Endnutzer.
Mehrere Advanced Persistent Threat-Gruppen nutzen KI-Modelle mittlerweile über den gesamten Angriffszyklus hinweg. Die iranische Gruppe APT42 setzt Gemini ein, um detaillierte Zielpersonen-Profile zu erstellen und kulturell angepasste Phishing-Nachrichten zu generieren. Die nordkoreanische Gruppe UNC2970 recherchiert mit KI-Unterstützung Informationen über Cybersicherheits- und Verteidigungsunternehmen, um glaubwürdige Recruiter-Personas aufzubauen. Besonders bemerkenswert: Die chinesische APT31-Gruppe experimentiert mit "Agentic AI" und simuliert Penetrationstests, indem sie Gemini mit einer Cybersecurity-Experten-Persona ausstattet und gezielt nach Schwachstellen in US-amerikanischen Systemen suchen lässt.
Dateilose Malware per KI
Im Bereich der Malware-Entwicklung beobachtete GTIG die neue Schadsoftware-Familie HONESTCUE, die Geminis API nutzt, um C#-Code für Second-Stage-Malware zu generieren. Der Ansatz ermöglicht eine dateilose Ausführung direkt im Arbeitsspeicher und erschwert die Erkennung durch traditionelle Sicherheitssysteme. Ebenfalls dokumentiert wurde COINBAIT, ein Phishing-Kit, das offenbar mit der KI-Plattform Lovable AI erstellt wurde und sich als Kryptowährungsbörse tarnt. Darüber hinaus missbrauchen Cyberkriminelle die öffentliche Sharing-Funktion von KI-Diensten, um über "ClickFix"-Techniken Malware zu verbreiten. Die Angreifer nutzen dabei das Vertrauen in bekannte KI-Plattformen aus.
Google reagiert auf diese Entwicklungen mit mehrschichtigen Schutzmaßnahmen. Das Unternehmen deaktiviert systematisch Konten und Projekte, die mit Bedrohungsakteuren in Verbindung stehen, und verbessert kontinuierlich seine Klassifikatoren und Modelle. Zusätzlich setzt Google auf Echtzeit-Abwehrmaßnahmen, die die Leistung von "Student Models" bei Extraktionsversuchen degradieren können. Die gewonnenen Erkenntnisse fließen in die Weiterentwicklung der Sicherheitsmaßnahmen ein. Obwohl GTIG noch keine bahnbrechenden Fähigkeiten beobachtet hat, die die Bedrohungslandschaft grundlegend verändern würden, zeigen die dokumentierten Proof-of-Concept-Entwicklungen, wohin sich KI-gestützte Angriffe entwickeln könnten.