Zwischen Effizienzversprechen und Grundrechtsgrenzen: Die Digitalisierung macht vor der Strafverfolgung nicht halt. Mit Systemen wie „Hessendata“, einer auf der Plattform „Gotham“ von Palantir Technologies basierenden Software, sind polizeiliche Ermittlungsbehörden in der Lage, Daten aus verschiedensten Quellen in Sekunden zu durchleuchten, zu verknüpfen und visuell aufzubereiten.
Was früher Tage oder Wochen manueller Recherche erforderte, ist nun mit wenigen Klicks erledigt. Und doch – oder gerade deshalb – stellt sich die Frage: Wie viel algorithmengestützte Ermittlungsarbeit verträgt ein Rechtsstaat? Und wo wird aus Ermittlungsintelligenz Überwachung?
Digitale Werkzeuge in der Strafverfolgung – Potenzial und Realität
Systeme wie Hessendata versprechen Effizienz. Sie ermöglichen es, Muster in großen Datenmengen zu erkennen, Querverbindungen zwischen Personen und Objekten sichtbar zu machen und verdichtete Hinweise auf mögliche künftige Straftaten zu gewinnen. Gerade bei der Bekämpfung schwerer Kriminalität, etwa Terrorismus oder organisierter Kriminalität, ist das ein nicht zu unterschätzender Fortschritt. Dass diese Technologie in der Praxis funktioniert, zeigen diverse Ermittlungserfolge, über die auch das hessische Innenministerium berichtet hat.
Die Grundlage dieser Auswertungen sind Daten aus polizeilichen Datenbanken (etwa POLAS, CRIME-ST, ComVor), ergänzt um forensische Extrakte (z. B. aus beschlagnahmten Mobiltelefonen) oder Telekommunikationsdaten. In der Theorie soll kein Zugriff auf offene Internetquellen bestehen – doch schon der Zwischenbericht des Hessischen Landtags lässt Zweifel aufkommen, ob externe Datenquellen nicht doch, zumindest manuell, eingespeist werden.
Der reflexhafte Ruf nach „mehr Technik“ darf nicht dazu führen, dass individuelle Rechte unter die Räder kommen.
Fachanwalt für Strafrecht Ferner
Das Bundesverfassungsgericht zieht die Linie
Spätestens mit seinem Urteil vom 16. Februar 2023 hat das Bundesverfassungsgericht klargestellt: So hilfreich automatisierte Datenanalysen sein mögen – sie sind ein Grundrechtseingriff. Und zwar ein eigenständiger, der nicht einfach als „technische Hilfe“ im Rahmen ohnehin erlaubter Datenverarbeitung durchgeht.
Besonders deutlich: Die automatisierte Analyse erzeugt durch ihre Fähigkeit, Personen zu vernetzen, Verhaltensmuster zu rekonstruieren und neue Hypothesen über Verdächtige zu bilden, ein eigenes „Eingriffsgewicht“. Sie ist kein bloßes Instrument der Reorganisation – sie verändert die Qualität der Ermittlungsarbeit und erhöht das Risiko, unbeteiligte Personen in das Visier der Ermittler zu bringen.
Die Konsequenz: Solche Systeme dürfen nur auf einer eigenen, bereichsspezifischen gesetzlichen Grundlage eingesetzt werden, deren Eingriffsschwellen hinreichend bestimmt und normenklar sind. Der Gesetzgeber muss detailliert regeln, welche Daten verarbeitet werden, zu welchen Zwecken dies erlaubt ist, und mit welchen technischen und organisatorischen Garantien die Maßnahme flankiert wird. Genau daran scheiterte der § 25a HSOG in seiner damaligen Fassung.
Gefährdung der informationellen Selbstbestimmung
Das Recht auf informationelle Selbstbestimmung schützt nicht nur davor, dass der Staat ohne Anlass Daten erhebt, sondern auch davor, dass bereits erhobene Daten unbegrenzt weiterverarbeitet und in neue Kontexte gestellt werden. Besonders brisant ist dabei die Kombination aus Daten verschiedener Quellen: Wer in unterschiedlichen Zusammenhängen auftaucht – etwa als Zeuge, Opfer oder Hinweisgeber – kann in der Netzwerkanalyse plötzlich als Knotenpunkt erscheinen. Das mag technisch korrekt sein, bedeutet aber einen empfindlichen Eingriff in das Persönlichkeitsrecht.
Ein besonderes Risiko besteht für Menschen, die nie selbst Beschuldigte waren, deren Daten aber durch die Struktur der Ermittlungen – etwa bei Gruppenzugehörigkeiten oder räumlichen Überschneidungen – in die Analyse geraten. Dass hier schnell der Eindruck entstehen kann, jemand sei “verdächtig”, obwohl dafür keine strafprozessuale Grundlage existiert, ist mehr als ein hypothetisches Problem. Die Technik ist nicht neutral, und ihre Ergebnisse sind es auch nicht.
Mehr bei uns zu digitalen Beweismitteln:
- Zugriffe der Polizei: WhatsApp-Nachrichten, Mails, TOR-Netzwerk, File-Carving, Predictive Policing und Kryptowährungen
- Handyauswertung: Wie arbeiten Ermittler?
- Digitale Beweismittel im deutschen Strafprozess
- Strafbarkeit wenn man sein Passwort nicht verrät?
- Foto von Fingerabdruck führt zu Encrochat-Nutzer
- Beiträge zu Encrochat
- Blackbox im PKW
- IT-Forensik: Welche Software nutzen Ermittler?
- Nachweis von Software-Urheberrechtsverletzung
- Wann ist eine Mail zugegangen?
- SIRIUS Report: Statistiken zur Verwendung digitaler Beweismittel in der EU
- EGMR zu digitalen Beweismitteln
- EUGH: Beweisverwertungsverbot bei mangelnder Verteidigung
- e-Evidence-Verordnung: Grenzüberschreitender Zugriff auf digitale Beweise in der EU ab 2026
Predictive Policing, KI und die Blackbox-Problematik
Noch tiefgreifender wird das Problem, wenn wir über Künstliche Intelligenz in der Strafverfolgung sprechen. Zwar arbeitet Hessendata derzeit wohl (?) nicht mit lernenden Algorithmen im engeren Sinne, doch die Diskussion zeigt: Die Tendenz zur Delegation der Gefahrenprognose an technische Systeme wächst. Systeme wie COMPAS (in den USA) oder Vorschläge zur KI-basierten Stimmanalyse zeigen, wie schwer es wird, Entscheidungen noch transparent zu begründen, wenn sie auf neuronalen Netzen oder statistischen Clustern beruhen.
Gerade im Strafverfahren ist jedoch der Grundsatz der Begründung – des Warum einer Maßnahme – essenziell. Entscheidungen, die sich auf Blackbox-Ergebnisse stützen, sind weder für die Verteidigung nachvollziehbar noch für die Justiz zuverlässig überprüfbar. Wenn wir anfangen, unsere Ermittlungsschritte auf Wahrscheinlichkeiten zu gründen, die nicht erklärt werden können, drohen wir rechtsstaatlichen Boden zu verlassen.
Was bedeutet das für die Strafverteidigung?
Für Verteidigerinnen und Verteidiger eröffnen sich damit neue Aufgaben. Zum einen gilt es, das Verständnis für digitale Beweismittel und deren Herkunft zu vertiefen. Wie wurde eine Person identifiziert? Welche Daten liefen in das System? Welche Alternativen wären denkbar gewesen? Zum anderen müssen wir die juristische Einhegung dieser Systeme im Blick behalten: Wurden gesetzliche Voraussetzungen eingehalten? War die Maßnahme erforderlich, geeignet und verhältnismäßig?
Nicht zuletzt wird es darauf ankommen, Grundrechtsfragen frühzeitig zu stellen – und nötigenfalls gerichtlich klären zu lassen, ob ein Verfahren auf digitalen Fundamenten steht, die in dieser Form nicht tragfähig sind.
Ein notwendiger, aber gefährlicher Weg
Automatisierte Datenanalysen sind nicht per se rechtsstaatswidrig. Sie sind notwendig – angesichts der Datenmengen, mit denen Sicherheitsbehörden heute konfrontiert sind. Es wäre fahrlässig, ihnen Werkzeuge zu verweigern, die bei der Aufklärung schwerer Straftaten helfen können.
Aber es ist ebenso fahrlässig, diese Werkzeuge nicht mit rechtsstaatlichen Sicherungen zu versehen. Der reflexhafte Ruf nach „mehr Technik“ darf nicht dazu führen, dass individuelle Rechte unter die Räder kommen. Gerade in Zeiten massiver technischer Möglichkeiten sind es die Grenzen, die den Rechtsstaat auszeichnen. Wir brauchen nicht weniger Technik, sondern mehr Recht – und eine klare Vorstellung davon, was wir im Namen der Sicherheit opfern wollen. Und was nicht.
- Die Einziehung von Taterträgen beim untauglichen Versuch - 22. Mai 2025
- Russische Cyberangriffe auf westliche Logistik- und Technologieunternehmen 2025 - 22. Mai 2025
- Keine Schweigepflicht im Maßregelvollzug - 21. Mai 2025