Das Büro ist über Karneval vom 12.02 bis 17.02. geschlossen - Notruf erreichbar

US-Behörden nehmen Zugriff auf ChatGPT-User-Inhalte

Die Zusammenarbeit zwischen Technologieunternehmen und Strafverfolgungsbehörden ist nicht neu. Doch während Plattformen wie Google oder soziale Netzwerke bereits seit Jahren Daten auf Anfrage von Ermittlern offenlegen, betreten KI-Unternehmen wie OpenAI hier nun Neuland. Ein aktuell berichteter Fall soll nun zeigen, wie ChatGPT-Prompts erstmals als Werkzeug der Strafverfolgung genutzt werden – und welche rechtlichen und gesellschaftlichen Fragen sich daraus ergeben.

Beachten Sie auch, dass der Vorgang – unter Bezug auf meine Besprechung – bei „heise online“ aufgegriffen wurde.

Identifizierung eines Verdächtigen

Im Mittelpunkt steht ein Ermittlungsverfahren des US-Heimatschutzministeriums (DHS) über das Forbes berichtet, das einen mutmaßlichen Betreiber mehrerer Darknet-Seiten mit kinderpornografischen Inhalten aufspürte. Der entscheidende Hinweis kam nicht aus den Tiefen des Darknets, sondern aus einer scheinbar harmlosen Unterhaltung über ChatGPT. Der Verdächtige, der sich in einem Undercover-Chat als Administrator zu erkennen gab, erwähnte beiläufig, dass er den KI-Chatbot für verschiedene Anfragen nutzte. Dazu zählte die Frage, was passieren würde, wenn Sherlock Holmes auf Q aus Star Trek träfe, sowie die Bitte um ein humorvolles, im Stil Donald Trumps verfasstes Gedicht über die Village People. Die Antwort von ChatGPT – ein übertriebener, selbstverliebter Text im typischen Trump-Jargon – wurde von ihm kopiert und in das Darknet-Forum eingefügt.

Für die Ermittler war dies der Ansatzpunkt, um OpenAI per richterlichem Beschluss zur Herausgabe von Nutzerdaten aufzufordern. Nicht die Inhalte der Prompts selbst standen im Fokus, sondern die Metadaten: Welche Konten waren mit diesen Anfragen verknüpft? Welche Zahlungsinformationen oder IP-Adressen ließen sich zuordnen? Die Daten, die OpenAI daraufhin übermittelte, halfen den Behörden, den Verdächtigen als Drew Hoehner zu identifizieren, einen 36-Jährigen mit Bezug zur US-Militärbasis Ramstein. Hoehner wird vorgeworfen, an der Verwaltung von mindestens 15 Darknet-Seiten mit illegalen Inhalten beteiligt gewesen zu sein, die zusammen Hunderttausende Nutzer hatten.

Was diesen Fall besonders macht, ist die Methode: Erstmals wurde ein KI-Chatbot nicht als Werkzeug des Verdächtigen, sondern als Quelle für belastendes Material genutzt. Bisher waren solche Anfragen bei Suchmaschinen oder sozialen Medien üblich – etwa wenn Google Daten zu bestimmten Suchanfragen preisgeben musste. Bei generativer KI handelt es sich jedoch um ein Novum. Die Ermittler nutzten die Prompts wie einen digitalen Fingerabdruck, um eine Verbindung zwischen der anonymen Online-Identität und der realen Person herzustellen.

Auskünfte bei OpenAI steigen

Die Transparenzberichte von OpenAI zeigen, dass Regierungsanfragen nach Nutzerdaten in den letzten zwei Jahren deutlich zugenommen haben. Während 2023 noch ausschließlich Nicht-Inhaltsanfragen – also Metadaten wie Nutzer- oder Zahlungsinformationen – im Raum standen, häufen sich seit 2024 auch Anfragen zu konkreten Inhalten. Im zweiten Halbjahr 2024 gingen 71 solche Ersuchen ein, von denen OpenAI in 43 Fällen Nicht-Inhaltsdaten und in 10 Fällen Inhaltsdaten weitergab. Parallel dazu meldete das Unternehmen über 31.000 Hinweise auf kinderpornografische Inhalte an das National Center for Missing & Exploited Children (NCMEC). Und hier lauert die nächste Gefahr: Es ist absehbar, dass immer mehr Eltern Fotos Ihrer Kinder in Chatbots hochladen, um ärztliche Auskünfte zu erhalten … das könnte zum Brandherd für NCMEC Mitteilungen und damit Kinderpornographie-Strafverfahren führen.

Doch die Kooperation mit den Behörden wirft Fragen auf. Die Electronic Frontier Foundation (EFF) warnt im Forbes Artikel, dass solche Fälle die Debatte über Datensparsamkeit neu entfachen müssten. Je mehr Informationen KI-Unternehmen über ihre Nutzer speichern, desto attraktiver werden sie als Ziel für staatliche Zugriffe – sei es in berechtigten Ermittlungsverfahren oder in weniger klaren Fällen. Bisher gibt es keine öffentlichen Richtlinien, wie OpenAI mit solchen Anfragen umgeht oder welche Standards für die Datenweitergabe gelten. Die Gefahr, dass KI-Chatbots zu Überwachungsinstrumenten werden, ist real.

Rechtsanwalt Jens Ferner, TOP-Strafverteidiger und IT-Rechts-Experte - Fachanwalt für Strafrecht und Fachanwalt für IT-Recht

Denken Sie nach!

Dieser Fall zeigt, wie schnell technologische Innovationen bestehende rechtliche und ethische Grauzonen aufdecken. KI ist schon lange kein abstrakter Algorithmus mehr, sondern ein Akteur, der in reale Ermittlungen eingebunden wird. Das wirft grundlegende Fragen auf: Sollten KI-Unternehmen Daten so speichern, dass sie für Strafverfolger nutzbar sind? Ich glaube nicht, dass jedem die Brisanz dieser Frage bewusst ist: Bei der Nutzung von KI geht es nicht nur um die konkreten Daten wie Prompts und erzeugte Ausgabetexte. Vielmehr kann das gesamte Verhalten ausgewertet und mittels KI ein Abbild der Persönlichkeit erstellt werden, mit dem Ermittler arbeiten können.

Eines ist sicher: Dieser Fall wird nicht der letzte bleiben. Die Wechselwirkung zwischen KI und Strafverfolgung wird in den kommenden Jahren weiter an Bedeutung gewinnen. Es liegt zum einen an Gesetzgebern, Unternehmen und der Zivilgesellschaft, Regeln zu schaffen, die sowohl Sicherheit als auch Freiheitsrechte wahren. Doch vor allem ist der einzelne User gefragt: Nutzen Sie solche Angebote nicht unreflektiert, denn Sie legen viel mehr von sich offen als nur „ein paar Prompts”. KI-Abfragen durch Ermittler schaffen Möglichkeiten auf dem Niveau von Profiling und DNA-Spuren!

Präzedenzfall mit Signalwirkung

Der aktuelle Fall ist nicht nur ein Erfolg für die US-Strafverfolgung, sondern auch ein Weckruf für die Tech-Branche. KI-Systeme werden zunehmend zu Akteuren in Ermittlungsverfahren, ohne dass es klare rechtliche Rahmenbedingungen gibt. Während die Identifizierung von Straftätern – insbesondere in so schwerwiegenden Fällen wie der Verbreitung von Missbrauchsmaterial – nachvollziehbar ist, bleibt unklar, wo die Grenzen liegen. Was passiert, wenn Prompts nicht mehr nur in Extremfällen, sondern routinemäßig zur Überwachung genutzt werden? Wie lässt sich verhindern, dass harmlose Nutzer in falsche Verdachtsmomente geraten, nur weil ihre Anfragen zufällig denen eines Verdächtigen ähneln?

Die Diskussion erinnert an die Debatten um Vorratsdatenspeicherung oder die Auswertung von Suchanfragen: Technisch möglich ist vieles – doch nicht alles, was möglich ist, ist auch wünschenswert oder hat eben bei weiterer Betrachtung erhebliche Nachteile. Die Herausforderung wird sein, ein Gleichgewicht zu finden zwischen effektiver Strafverfolgung und dem Schutz der Privatsphäre. OpenAI und andere KI-Unternehmen stehen nun vor der Aufgabe, ihre Datenschutzrichtlinien zu überprüfen und transparent zu kommunizieren, unter welchen Bedingungen sie Nutzerdaten preisgeben.

Rechtsanwalt Jens Ferner
Rechtsanwalt Jens Ferner

Von Rechtsanwalt Jens Ferner

Rechtsanwalt Jens Ferner ist renommierter Strafverteidiger im gesamten Strafrecht samt Managerhaftung (mit Schwerpunkt Wirtschaftskriminalität und Cybercrime) sowie Spezialist im IT-Recht mit Schwerpunkt Softwarerecht und digitale Beweismittel. Als Fachanwalt für Strafrecht + IT-Recht verteidigt er Mandanten in anspruchsvollen Strafverfahren, speziell an der Schnittstelle von Strafrecht & IT-Recht und berät in komplexen Softwareprojekten.

Rechtsanwalt Jens Ferner ist Lehrbeauftragter für Wirtschaftsstrafrecht und IT-Compliance (FH Aachen), Softwareentwickler, fortgebildet in Kommunikationspsychologie und publiziert fortlaufend.

Erreichbarkeit: Erstkontakt per Mail oder Rückruf.

Unsere Anwaltskanzlei im Raum Aachen ist hochspezialisiert auf Strafverteidigung, Cybercrime, Wirtschaftsstrafrecht samt Steuerstrafrecht. Zudem sind wir für Unternehmen im Softwarerecht und Cybersicherheitsrecht beratend tätig.