Die Zusammenarbeit zwischen Strafverfolgungsbehörden und Technologieunternehmen ist kein neues Phänomen. Doch was passiert, wenn eine EU-Polizeibehörde wie Europol nicht nur Daten von Microsoft, Palantir oder Clearview AI nutzt, sondern diese Firmen direkt in ihre operativen Strukturen integriert – mit eigenen Arbeitsplätzen im Hauptquartier, exklusiven Datenleitungen und einer Kultur der Intransparenz?
Ein aktueller Bericht von Statewatch, über den auch bei heise online berichtet wird, scheint ein System zu offenbaren, das Grundrechte, Datenschutz und demokratische Kontrolle zugunsten einer immer engeren public-private partnership aushebelt. Die Berichterstattung sollte zentrale Fragen aufwerfen: Wie zuverlässig sind Daten, die aus solchen Allianzen stammen? Und wer kontrolliert eigentlich die Kontrolleure? Ich möchte die Berichterstattung hier kurz darstellend aufgreifen, wobei ich keine eigenen Erkenntnisse habe.
Tech-Firmen als „stille Ermittler“?
Seit der Mandatserweiterung 2022 darf Europol nicht nur massenhaft Daten sammeln und mit KI auswerten, sondern auch direkt mit privaten Unternehmen kooperieren – ohne öffentliche Ausschreibungen, ohne wirksame parlamentarische Aufsicht. Die Folgen laut der Analyse von Statewatch:
- Microsoft-Mitarbeiter sitzen im Europol-Gebäude in Den Haag und arbeiten an gemeinsamen Ermittlungen.
- Palantirs „Gotham“-Plattform, bekannt für ihre Rolle in Israels Überwachungspraxis, war jahrelang das Rückgrat von Europols Datenanalyse – obwohl die Behörde die Nutzung offiziell 2021 beendete. Auf Anfragen zu Details blockierte Europol fast alle Informationen mit Verweis auf „Geschäftsgeheimnisse“.
- Clearview AI, dessen Gesichtserkennung in der EU eigentlich verboten ist, präsentierte seine Tools bei Europol – trotz expliziter Warnung des Europäischen Datenschutzbeauftragten, dies verstoße gegen geltendes Recht.
Besonders brisant dürfte sein, dass Cellebrite, dessen „UFED“-Software weltweit zur Extraktion von Handydaten genutzt wird – und in manchen Staaten sicherlich gegen Journalisten, Aktivisten oder Migranten – fester Bestandteil von Europols Werkzeugkasten ist. Das Unternehmen, dessen Europa-Chef zuvor für die NSO Group (Pegasus-Spyware) arbeitete, weigert sich laut den Berichten, Details zu seinen Europol-Verträgen offenzulegen. Die Begründung sind natürlich „Betriebsgeheimnisse.“
„Drehtür“-Problem: Von der Behörde in die Industrie – und zurück
Ein zentrales Risiko solcher Kooperationen ist der nahtlose Wechsel von Europol-Mitarbeitern in die Tech-Branche – und umgekehrt. Statewatch dokumentiert Fälle wie den eines ehemaligen Cybercrime-Spezialisten, der direkt nach seinem Ausscheiden 2023 zu Maltego Technologies wechselte, einem Anbieter von Datenanalyse-Tools. Kurz darauf trainierte er als Externer Europol-Beamte in der Nutzung genau dieser Software. Europol verweigert hier jede Auskunft – mit Verweis auf den Datenschutz des ehemaligen Mitarbeiters.
Die EU-Ombudsfrau rügte solche Praktiken bereits 2025 als „Fehlverwaltung“ und forderte strengere Regeln. Doch die Antwort der Behörde bleibt vage: Man habe „Prozesse verbessert“ – konkrete Maßnahmen? Fehlanzeige.
Research & Industry Days
Wenn Überwachungstechnik im Schutze der Geheimhaltung verkauft wird: Seit 2024 veranstaltet Europol jährlich die „Research and Industry Days“ – eine Plattform, auf der Tech-Firmen ihre neuesten Überwachungstools vorstellen: von KI-gestützter Stimmanalyse („Voice Inspector“) über Drohnen-Schnittstellen bis hin zu Systemen, die private Chatverläufe in Echtzeit auslesen (wie die Software von Volto Labs).
- Teilnehmer sind wohl nicht nur etablierte Player wie NEC (Gesichtserkennung) oder Boston Dynamics (militärische Roboter), sondern auch Start-ups mit fragwürdigen Datenschutzpraktiken.
- Transparenz? Fehlanzeige. Europol veröffentlicht keine Präsentationen, keine Verträge, keine Kriterien für die Auswahl der Anbieter. Selbst die Namen der teilnehmenden Firmen werden teilweise geheim gehalten – mit der Begründung, dies diene der „operativen Sicherheit“.
Dabei geht es nicht um theoretische Risiken: Tools wie PimEyes (Gesichtssuche im Internet) oder Griffeye (Analyse von Kinderpornografie-Material) sind in der EU rechtlich umstritten – doch Europol testet sie trotzdem, oft unter dem Deckmantel von „Pilotprojekten“.
Wenn Beweismittel aus der Black Box kommen
Für Strafverteidiger sollte diese Entwicklung alarmierend sein:
- Beweisketten werden undurchsichtig: Wenn Ermittler auf KI-Tools zurückgreifen, deren Algorithmen Betriebsgeheimnisse sind, wie soll ein Gericht deren Zuverlässigkeit prüfen?
- Datenschutzverstöße sind vorprogrammiert: Europol nutzt Technologien, die in der EU explizit verboten sind (wie Clearview AI) – und rechtfertigt dies mit „Ausnahmen für die nationale Sicherheit“.
- Wer haftet bei Fehlern? Wenn ein Algorithmus von Palantir oder Cellebrite falsche Verdachtsmomente liefert, wer trägt dann die Verantwortung: die Behörde, die Firma – oder niemand?
Die Europäische Datenschutzaufsicht (EDPS) hat bereits gewarnt, dass die Art und Weise intransparenter Datensammelei bei EUROPOL rechtlich problematisch ist bzw sein kann. Doch solange die Behörde sich auf „Geschäftsgeheimnisse“ berufen kann, bleibt die Kontrolle rein theoretisch.
Mehr bei uns zu digitalen Beweismitteln:
- Zugriffe der Polizei: WhatsApp-Nachrichten, Mails, TOR-Netzwerk, File-Carving, Predictive Policing und Kryptowährungen
- Handyauswertung: Wie arbeiten Ermittler?
- Digitale Beweismittel im deutschen Strafprozess
- Strafbarkeit wenn man sein Passwort nicht verrät?
- Foto von Fingerabdruck führt zu Encrochat-Nutzer
- Beiträge zu Encrochat
- Blackbox im PKW
- IT-Forensik: Welche Software nutzen Ermittler?
- Nachweis von Software-Urheberrechtsverletzung
- Wann ist eine Mail zugegangen?
- SIRIUS Report: Statistiken zur Verwendung digitaler Beweismittel in der EU
- EGMR zu digitalen Beweismitteln
- EUGH: Beweisverwertungsverbot bei mangelnder Verteidigung
- e-Evidence-Verordnung: Grenzüberschreitender Zugriff auf digitale Beweise in der EU ab 2026
Digitale Beweismittel brauchen klare Regeln
Die Kooperation zwischen Europol und Tech-Konzernen zeigt: Moderne Strafverfolgung ist ohne private Akteure nicht mehr denkbar. Doch wenn Behörden wie Europol sich zum verlängerten Arm von Unternehmen machen, die selbst in Menschenrechtsverletzungen verstrickt sind, wird das Problem zum Prinzip. Für die Praxis bedeutet das:
- Defensiv agieren: Bei digitalen Beweismitteln, die aus solchen Kooperationen stammen, muss die Herkunft und Methodik kritisch hinterfragt werden.
- Transparenz einfordern: Gerichte und Datenschutzbehörden müssen Zugang zu Algorithmen und Verträgen verlangen – sonst drohen Beweisverbote.
- Alternativen entwickeln: Die EU braucht eigene, demokratisch kontrollierte Lösungen für digitale Ermittlungen – statt sich von US-Firmen abhängig zu machen.
Die Frage ist nicht mehr, ob Tech-Konzerne die Strafverfolgung prägen, sondern wie wir verhindern, dass sie sie übernehmen. Die aktuellen Enthüllungen sind ein Weckruf – für Legislativen, Justiz und Zivilgesellschaft gleichermaßen.
- Hessendata, Palantir und der digitale Ermittlungsstaat (Update) - 13. Dezember 2025
- Dark Factories - 13. Dezember 2025
- Postlaufzeiten 2025 - 13. Dezember 2025
