Künstliche Intelligenz nutzen und datenschutzkonform agieren

Lesezeit
3 Minuten
Bis jetzt gelesen

Künstliche Intelligenz nutzen und datenschutzkonform agieren

13.03.2024 - 08:17
Veröffentlicht in:

Künstliche Intelligenz ist ein Meilenstein für die Technologiebranche, ihr volles Potenzial aber noch nicht ausgeschöpft. Es zeigt sich jedoch, dass KI-Anwendungen eine intensive Datennutzung und menschliches Eingreifen erfordern – nicht zuletzt, um Datenschutz zu gewährleisten und mögliche neue, KI-basierte Sicherheitsrisikien zu vermeiden. Organisationen müssen daher analysieren, wie sie KI in ihre Strategie zum Datenmanagement integrieren können.

Künstliche Intelligenz ist weltweit auf dem Vormarsch und verändert die Art und Weise, wie Menschen kommunizieren und arbeiten. Gleichzeitig birgt der Einsatz von KI erhebliche Risiken für die Datensicherheit. Gerade Ransomware-Angriffe werden durch den Einsatz KI-basierter Tools immer raffinierter, effizienter und schwerwiegender. Dieses Szenario verschärft sich durch die Zunahme autonomer Angriffe, die als Robo-Ransomware-Angriffe bekannt sind, noch zusätzlich.

Neben der Automatisierung von Angriffen kommt KI auch immer zum Einsatz, um Ziele zu identifizieren, Sicherheitslücken auszuspähen, in Systeme einzudringen und Opfer zu erpressen. Chatbots wie WormGPT erleichtern Angreifern die Verbesserung von Social-Engineering-Angriffen wie Phishing-E-Mails, da das GPT-J-Modell in der Lage ist, menschenähnliche Texte zu verfassen. All dies geschieht mit hoher Effizienz und minimaler menschlicher Beteiligung, was die Zahl der potenziellen Opfer und die Häufigkeit der Angriffe erhöht.

Damit erweist sich KI als zweischneidiges Schwert: Einerseits bietet die Technologie vielversprechende Lösungsansätze im Kampf gegen Hacker – unter anderem durch das Erkennen von Angriffsmethoden und daraus resultierenden automatisierten Reaktionen. Andererseits optimieren böswillige Akteure ihre Methoden mit Hilfe der Technologie.

Risiken für den Datenschutz
Die Datensicherheit von Unternehmen ist nicht nur durch Angriffe von außen bedroht. Auch der Einsatz von KI selbst birgt Risiken. GPT-Modelle lernen durch die Analyse umfangreicher Datensammlungen, was auch öffentlich zugängliche Inhalte aus dem Internet einschließen kann. Aus erkannten Mustern und Beispielen generieren sie neue Ausgaben und Ergebnisse. Verarbeitet die KI dabei urheberrechtlich geschütztes Material ohne Erlaubnis, kann dies zu Urheberrechtsverletzungen führen.

Greift KI auf sensible oder personenbezogene Daten zu, gefährdet sie die Einhaltung der europäischen Datenschutzgrundverordnung (EU-DSGVO). Der Verzicht auf wirksame Vorkehrungen gegen Urheberrechts- und Datenschutzverletzungen beim Einsatz von KI ist eindeutig ein Risikofaktor für Unternehmen. Denn Verstöße können schwerwiegende Folgen haben. 2023 wurden DSGVO-Bußgelder in Höhe von durchschnittlich 2,8 Millionen Euro pro Verstoß verhängt.

Unternehmen und Organisationen sind sich der Gefahren für die Sicherheit ihrer Daten durchaus bewusst. Das zeigt die Studie "Data Risk Management: The State of the Market-Cyber to Compliance", für die Veritas rund 1600 Führungskräfte und IT-Verantwortliche in 13 Ländern befragt hat. Direkt auf potenzielle Risiken angesprochen, nannten die Teilnehmer Gefahren für die Datensicherheit (40 Prozent), wirtschaftliche Unsicherheit (39 Prozent) und neue Technologien wie KI (38 Prozent) als die größten Bedrohungen. Für 61 Prozent der Befragten haben sich die Gefahren für die Datensicherheit in den vergangenen zwölf Monaten erhöht. Lediglich 18 Prozent gaben an, dass die Risiken abgenommen hätten.

Datenschutzkonformer Einsatz von KI
Unternehmen müssen sicherstellen, dass sie Technologie in Übereinstimmung mit Regeln einsetzen. Beim Einsatz von KI heißt das, es müssen Techniken und Strategien zur Anonymisierung der Daten implementieren werden, die Datenschutz- und Löschrichtlinien der verwendeten Modelle und Plattformen überprüfen und Maßnahmen zum Schutz der Privatsphäre ergreifen. Darüber hinaus sollten sie mögliche Schwachstellen der Infrastruktur, die die Modelle unterstützt, im Auge behalten. Dazu gehören Speichersysteme oder APIs, die zur Inferenz Verwendung finden, sowie Sicherheitskontrollen wie Verschlüsselung, Netzwerksegmentierung, Intrusion Detection und dazu eine passende Zugriffs- und Rechteverwaltung. Solche Maßnahmen können verhindern, dass Daten aus der Infrastruktur unrechtmäßig abfließen.

Als großer Fortschritt gilt der intelligente adaptive Schutz von Daten; dabei überwachen entsprechende Tools Veränderungen im Verhalten von aktiven Benutzer- oder Administratorenkonten, um festzustellen, ob Nutzerzugänge kompromittiert wurden. Erkennen sie ungewöhnliche Aktivitäten, lösen sie eine Kaskade von Ereignissen aus, wie das Informieren des Security-Teams und das Erhöhen des Schutzniveaus – zum Beispiel durch eine harte Abschottung des Datensicherungssystems.

Voraussetzung für einen datenschutzkonformen Einsatz von KI ist zudem ein effizientes Datenmanagement. Insbesondere Unternehmen mit Multicloud-Umgebungen müssen wachsende Informationsmengen bewältigen. Herkömmliche Managementkonzepte reichen dafür aufgrund mangelnder Skalierbarkeit, Geschwindigkeit, Transparenz oder Schlicht durch den Mangel der möglichen Unterstützung aller eingesetzten, geschäftskritischen Anwendungen und Verfahren meist nicht mehr aus.

Gefragt sind heute KI-gestützte Systeme, die eine ausgewogene Balance zwischen Automatisierung und menschlicher Interaktion ermöglichen. KI-gestütztes Datenmanagement bieten eine Reihe von Vorteilen:

  • Data Governance durch proaktives Monitoring: Intelligente Systeme können zum einen helfen, Daten und den Wert der Informationen besser verstehen, um diese proaktiv auf nicht veränderliche Systeme zu verlagern. Zum anderen lassen sich anomale Verhalten, die durch eventuell kompromittierte Benutzerkonten entstehen, frühzeitig identifizieren.
  • Datensicherheit durch prädiktive Wartung und Überwachung der Systemgesundheit: Das Ziel muss es sein, die Systeme zum Datenmanagement einer möglichst geringen Ausfallgefahr auszusetzen. Durch die permanente Analyse sind KI-Technologien in der Lage, mögliche Störungen oder Ausfälle der Datenmanagement-Plattform frühzeitig zu prognostizieren. Sie können den IT-Mitarbeitern Korrektur- oder Reparaturmaßnahmen empfehlen oder diese selbst veranlassen.
  • Datenschutz durch Anomalieerkennung: In komplexen Multicloud- und verteilten Rechenzentrumsumgebungen verspricht der Einsatz eines KI-gestützten autonomen Datenmanagements mehr Effizienz und eine verbesserte Cyberresilienz. Durch KI-basierte Anomalieerkennung, automatisierte Malwarescans von Backup-Images und die intelligenten Verteilung von Scanergebnissen an das Security-Team können Unternehmen ihr Datenmanagement und den Schutz vor Cyberbedrohungen deutlich verbessern. Darauf basierend kann ein sauberes Recovery erfolgen, das infizierte Bestandteile von Backup-Images bewusst ausschließt.

Fazit
Trotz aller Fortschritte befinden wir uns im Zeitalter der "schwachen KI" und deren Technologien sind in vielerlei Hinsicht noch nicht ausgereift. Es ist daher wichtig, dass der Mensch zumindest die Auswahl und die Entscheidungen der digitalen Intelligenz überprüft. Um kostspielige Fehlentscheidungen zu vermeiden, ist von einer vollständigen Automatisierung von Entscheidungen weiterhin abzuraten. Unternehmen sollten KI bewusst, kontrolliert und im Einklang mit den gesetzlichen Anforderungen, Unternehmenszielen und -richtlinien einsetzen.

ln/Patrick Englisch, CTO DACH bei Veritas Technologies

Ähnliche Beiträge

ChatGPT-gestütztes Phishing erkennen und abwehren

Der kometenhafte Aufstieg von ChatGPT ist die jüngste Entwicklung im konstanten Wettrüsten zwischen Cyberangreifern und -verteidigern. Leichter als je zuvor lassen sich nun täuschend echte Phishing-Nachrichten erzeugen. ChatGPT-Attacken sind dennoch nicht die ultimative Hiobsbotschaft für Sicherheitsverantwortliche, die selbst auf KI setzen: Large Language Models erkennen derart generierte Texte und schützen so Unternehmen und Mitarbeiter.

Sicherheit in Microsoft Azure (3)

Hybride Szenarien lassen sich je nach eingesetzter Technologie in der Cloud relativ schnell aufbauen. Dies ist etwa für Testszenarien interessant. Planen Sie aber, Teile Ihrer lokalen Infrastruktur dauerhaft auszulagern, sollten Sie die Sicherheit nicht aus den Augen verlieren. In der Cloud warten hier ganz neue Security-Aspekte – und das gleich auf verschiedenen Ebenen. Im letzten Teil des Workshops geht es unter anderem darum, wie Sie mit Microsoft Defender for Cloud für Sicherheit sorgen und warum Sie den Zugriff auf virtuelle Server einschränken sollten.

Sicherheit in Microsoft Azure (2)

Hybride Szenarien lassen sich je nach eingesetzter Technologie in der Cloud relativ schnell aufbauen. Dies ist etwa für Testszenarien interessant. Planen Sie aber, Teile Ihrer lokalen Infrastruktur dauerhaft auszulagern, sollten Sie die Sicherheit nicht aus den Augen verlieren. In der Cloud warten hier ganz neue Security-Aspekte – und das gleich auf verschiedenen Ebenen. Im zweiten Workshop-Teil schildern wir, wie Sie auf der Kommandozeile für den Security-Feinschliff sorgen und wie Sie den Azure-Login absichern.