Die automatisierte Gesichtserkennung wird innerhalb der EU immer stärker eingesetzt, berichtet EURACTIV. Die Studie (hier als PDF).
Das Problem dürfte sein, dass oft als scheinbar harmlose Pilotprojekt startende Testläufe letztlich zu breiten Masseneinsätzen führen, letztlich gleichsam schleichend solche weitreichenden Entwicklungen sich fortsetzen. Dabei verweist die Studie auf die EU-Entschliessungen zur künstlichen Intelligenz, die eine Begrenzung gerade auf gesetzlicher Ebene bedeuten würden.
Allerdings muss zugleich daran erinnert werden, dass sich Polizei und Justiz ausserhalb der üblichen EU-Datenschutzregulierungen bewegen. Man muss von Anfang an sehen, dass schon in frühen Stadien die rechtlichen Vorgaben für die Justiz ins Auge gefasst werden müssen, weil diese von dem „üblichen“ Datenschutz nicht erfasst sein wird (die DSGVO ist etwa auf die Strafverfolgung nicht anwendbar).
Wozu das führt sehe ich in aktuellen Verfahren: In einem zugegeben sehr umfangreichen Grossverfahren wegen Computerbetruges wurde ein Tatverdächtiger auf einem sozialen Netzwerk „identifiziert“, wobei aus Messenger und sozialem Netzwerk nur fotografische Aufnahmen zur Verfügung stehen hatte. Diese jagte das zuständige LKA dann durch eine Gesichtserkennungs-Software, um zu prüfen, ob das Gesicht einer Person in Datenbank (intern und OSINT) zuzuordnen ist. Man sollte also nicht glauben, dass nicht auch in einfachen Vorwürfen, wie bei einem automatisiert begangenen Betrug, nicht längst moderne digitale Ermittlungsansätze zur Anwendung gelangen.
- Jugendstrafrecht und die Problematik „schädlicher Neigungen“ - 24. Januar 2025
- Die globalen Risiken 2025 im Bericht des Weltwirtschaftsforums - 23. Januar 2025
- D&O-Versicherung und das automatische Vertragsende bei Insolvenz - 23. Januar 2025