Privacy-by-Design in der Videoanalyse

Lesezeit
3 Minuten
Bis jetzt gelesen

Privacy-by-Design in der Videoanalyse

18.03.2026 - 08:00
Veröffentlicht in:

KI-basierte Videoanalysen können Städte sicherer, intelligenter und effizienter machen – werfen aber zugleich sensible Datenschutzfragen auf. Entscheidend ist daher ein konsequenter Aufbau nach dem Prinzip "Privacy-by-Design". Der Onlinebeitrag zeigt, wie sich Datenschutz technisch in VideoManagementsysteme integrieren lässt und wie Anonymisierung bereits an der Datenquelle umgesetzt werden kann. Praxisbeispiele aus Smart-City-Projekten verdeutlichen, wie Analysen möglich sind, ohne Persönlichkeitsrechte zu verletzen.

Im Oktober 2025 sorgte ein Vorfall in Hamburg für Aufmerksamkeit: Eine Überwachungskamera mit KI-Erkennung deutete eine harmlose Umarmung fälschlich als körperliche Auseinandersetzung. Der Fall verdeutlicht die Grenzen aktueller Analysealgorithmen und die Risiken, die städtische Überwachungssysteme mit sich bringen. Kommunen und Polizei stehen deshalb vor einer zentralen Frage: Wie kann intelligente Videoüberwachung die Sicherheit erhöhen, ohne in die Privatsphäre einzugreifen oder Fehlalarme zu erzeugen? Im Folgenden beleuchten wir, wie sich Privacy-by-Design in Videoanalysesysteme einbetten lässt und welche technischen sowie regulatorischen Anforderungen dabei zu berücksichtigen sind.

Rechtlicher Rahmen: EU-AI-Act und Datenschutz

KI-gestützte Echtzeit-Videoanalysen können Risiken früh erkennen, indem sie automatisch Bewegungsmuster, ungewöhnliches Verhalten oder Dynamiken in Menschenmengen auswerten. In Hamburg testet die Polizei an Hansaplatz und Hachmannplatz eine intelligente Videoüberwachung, um Gefährdungssituationen zu identifizieren, bevor Einsatzkräfte eingreifen müssen. Bilder von Personen werden dabei in abstrahierte Strichmännchen umgewandelt. Bewegungen wie Schläge oder Tritte werden erkannt, ohne dass Gesichter oder Identitäten bestimmt werden. Die Software soll Polizei und Sicherheitsdiensten helfen, relevante Ereignisse früher und schneller zu erfassen und zugleich die Privatsphäre der Menschen zu schützen.

Parallel zur technischen Entwicklung nimmt auch der regulatorische Rahmen für KI-Systeme in der EU Gestalt an. Der seit 2024 geltende Artificial Intelligence Act soll Risiken reduzieren und Grundrechte schützen, indem er verbindliche Regeln für Entwicklung und Einsatz von KI festlegt.
Die Verordnung stuft Systeme zur biometrischen Echtzeit-Identifikation in öffentlich zugänglichen Räumen als Hochrisikoanwendungen ein und erlaubt ihren Einsatz nur unter strengen Bedingungen. Echtzeit-Gesichtserkennung ist grundsätzlich untersagt, mit Ausnahmen in eng begrenzten Fällen wie der Abwehr schwerer Straftaten.

KI-basierte Videoanalysen fallen in der Regel in diese Kategorie, da sie personenbezogene Daten verarbeiten und Entscheidungen zur Gefahrenbewertung beeinflussen können. Dies führt zu Anforderungen wie Transparenz, Nachvollziehbarkeit, dokumentierter Modellvalidierung, Risikobewertungen sowie technischen Maßnahmen zur Reduzierung von Fehlalarmen durch robuste Trainingsdaten und kontinuierliche Prüfung.

Praxisanforderungen an Privacy-by-Design

Für den Einsatz KI-gestützter Videoanalysen im öffentlichen Raum ist Privacy-by-Design ein zentrales Prinzip. Datenschutz muss von Beginn an im System verankert sein. Technisch bedeutet das unter anderem:

  • Anonymisierung von Bilddaten direkt an der Quelle
  • Trennung von Identifikations- und Analyseebene
  • Sparsamer Umgang mit personenbezogenen Daten über den gesamten Prozess
  • Transparenz und Überprüfbarkeit der KI-Modelle und ihrer Entscheidungen

Eine Plattform, die all diese Kriterien erfüllt, ist die Deep Natural Anonymization des Berliner Unternehmens brighter AI. Dabei erkennt KI automatisch personenbezogene Merkmale wie Gesichter oder Kennzeichen und ersetzt sie durch synthetische, nicht rückführbare Varianten. Im Gegensatz zu einer einfachen Unschärfe bleiben die Daten für Analysen nutzbar, da die relevanten Kontextinformationen erhalten bleiben. Die Privatsphäre bleibt dennoch gewahrt. Die Technologie zeigt, wie automatisierte Anonymisierung Datenschutzanforderungen technisch erzwingen kann und ermöglicht KI-gestützte Videoanalysen im Einklang mit europäischen Datenschutzvorgaben.

Technische Architektur von Anonymisierung und Analyse

Die Integration von Anonymisierung in Videoanalysesysteme lässt sich in verschiedene Architekturschichten gliedern, die jeweils spezifische Aufgaben erfüllen:

  1. Edge-Ebene (Kamera oder Netzgerät): Modelle zur Erkennung und unmittelbaren Anonymisierung können direkt auf den Geräten oder am ersten Verarbeitungspunkt laufen. Dadurch gelangen weniger sensible Daten ins Netzwerk und es wird frühzeitig datenschutzkonform gearbeitet.
  2. Analyseebene (Server oder Cloud): Anonymisierte Videoströme dienen der weitergehenden Analyse, etwa zur Erkennung von Menschenmengen, ungewöhnlichen Bewegungen oder Verkehrsflüssen. Durch die Entkopplung von Identitätsmerkmalen bleibt die Analyse datenschutzkonform.
  3. API- und Plug-in-Architektur: Moderne Videomanagementsysteme wie XProtect VMS von Milestone Systems verfügen über modulare Architekturen mit offenen Schnittstellen. Diese ermöglichen die direkte Integration von Anonymisierungstools, spezifische Anpassungen und die Einbindung externer Modelle. Städte können ihre bestehende Infrastruktur nutzen und datenschutzfördernde Funktionen schrittweise ergänzen.
  4. Monitoring und Transparenz: Neben der Anonymisierung gehören Protokollierung und Überwachung der KI-Entscheidungen zu den zentralen Bausteinen. Fehleinschätzungen wie das Verwechseln einer Umarmung mit einem Kampf müssen dokumentiert und korrigierbar sein, um das Vertrauen der Öffentlichkeit zu stärken.

Rechenleistung, Datenfluss und operative Anforderungen

Die Integration von KI-Analytik und Datenschutz wirkt sich direkt auf die Systemressourcen aus: Edge-Geräte müssen für moderne KI-Modelle ausgelegt sein. Dafür sind spezialisierte Chips wie GPUs oder NPUs oder hochoptimierte Modelle erforderlich. Zentrale Server müssen große Datenströme in Echtzeit zuverlässig verarbeiten. Anonymisierte Daten und Analyseergebnisse müssen zudem effizient gespeichert werden, unter Berücksichtigung von Kosten, Latenz und gesetzlichen Aufbewahrungsfristen.

Vorverarbeitung an der Edge sorgt dafür, dass nur relevante Daten übertragen werden. Das reduziert die Bandbreite und begrenzt den Umfang personenbezogener Daten im zentralen System. Übertragungswege müssen vollständig verschlüsselt sein.

Fazit

Erste Smart-City-Initiativen zeigen, wie anonymisierte Videoanalysen in der Praxis funktionieren. Bei der Verkehrssteuerung helfen KI-Systeme, Staus zu erkennen oder Fußgängerströme zu optimieren, ohne Personen zu identifizieren. In sicherheitsrelevanten Bereichen wie Verkehrsknotenpunkten ließen sich tatsächlich relevante Gefahrenlagen erkennen, die zuvor unentdeckt geblieben wären.

KI-gestützte Videoanalysen können einen wichtigen Beitrag zu sichereren und effizienteren Städten leisten, wenn sie konsequent auf Privacy-by -Design, klare technische und organisatorische Vorgaben und einen verbindlichen rechtlichen Rahmen aufbauen. Die Kombination aus Anonymisierung am Rand des Netzwerks, modularen Schnittstellen, robuster Datenverarbeitung und transparenter Überwachung der KI schafft Systeme, die Sicherheit erhöhen, ohne die Privatsphäre der Menschen zu gefährden.

In den kommenden Jahren wird die enge Zusammenarbeit zwischen Städten, Technologieanbietern und Regulierungsbehörden entscheidend sein, um hochwertige Datenmodelle, praktikable Standards und verlässliche Bewertungsmethoden zu entwickeln, die Vertrauen und Wirksamkeit gleichermaßen absichern. (ln)

Über den Autor: Dr. Barry Norton gründete als Vizepräsident bei Milestone die Forschungsabteilung und konzentriert sich darauf, die neuesten Entwicklungen im Bereich Video- und Sicherheitstechnologien voranzutreiben.