Gesetzentwurf zur Strafbarkeit von Deepfakes

Strafbarkeit von Deepfakes: Ein ganz aktueller Vorschlag für ein Gesetz aus Bayern (hier als Vorgang im Bundestag) zielt darauf ab, den strafrechtlichen Schutz von Persönlichkeitsrechten vor sogenannten Deepfakes zu verbessern. Ansatzpunkt ist die Schaffung eines neuen Straftatbestandes in Form eines neuen §201b StGB.

Hintergrund: Deepfakes sind realistisch wirkende Medieninhalte, die mithilfe von Künstlicher Intelligenz (KI) erzeugt oder verändert werden. Diese Inhalte bergen erhebliche Gefahren, da sie Täuschungen erzeugen können, die sowohl individuelle Persönlichkeitsrechte als auch den demokratischen Willensbildungsprozess beeinträchtigen.

Zielsetzung des Gesetzentwurfs

Durch strafrechtliche Sanktionen sollen (potenziell) Betroffene besser geschützt werden. Der Entwurf betont insoweit dann auch zu Recht den hohen Schutzbedarf von Betroffenen.

Mit dem technologischen Fortschritt und der zunehmenden Verfügbarkeit von KI-gestützten Anwendungen ist es leichter denn je, täuschend echte Fälschungen von Ton-, Bild- und Videoaufnahmen zu erstellen.

Diese Deepfakes können für Desinformationskampagnen, und sowie zur Schädigung von Persönlichkeitsrechten eingesetzt werden. Besonders betroffen sind häufig Frauen und Mädchen, deren Bilder in einen ungewollten sexuellen Kontext gesetzt werden (sog. Deepnudes). So benennt der Entwurf (Seite 4) dann auch die klassischen Probleme von deepfakes als ins Visier zu nehmende Ziele:

Manipulation des demokratischen Willensbildungsprozesses

  • Einsatz zu Desinformationszwecken: Deepfake-Technologie wird verwendet, um Desinformationskampagnen durchzuführen. Besonders betroffen sind Wahlen und politische Prozesse, bei denen manipulierte Medieninhalte von Personen des öffentlichen Lebens erstellt und verbreitet werden.
  • Ziel: Politische Gegner diskreditieren, lächerlich machen und nachteilige Stimmungen gegen sie schüren. Dies erfolgt durch täuschend echt nachgeahmte Stimmen oder gefälschte Äußerungen.

Betrugs- und Erpressungszwecke

  • Verfolgung eigennütziger wirtschaftlicher Interessen: Deepfakes werden für Betrug und Erpressung genutzt. Beispiele sind „Schockanrufe“ oder der „Enkeltrick“, bei dem Täter mit Voice Cloning Software die Stimmen von Angehörigen nachahmen.
  • Ziel: Täuschung von Opfern zur Erpressung von Geld, etwa durch vorgetäuschte Anrufe von Verwandten, die um finanzielle Hilfe bitten, oder durch den sogenannten CEO/CFO-Fraud, bei dem Unternehmen durch gefälschte Anrufe zu Geldüberweisungen bewegt werden.

Verletzung von Persönlichkeitsrechten

  • Erstellung und Verbreitung von Deepnudes: Frauen und Mädchen werden durch manipulierte Bilder oder Videos in einen sexuellen Kontext gesetzt, den sie nicht gewollt haben. Dies dient oft der Befriedigung von Rache- oder Machtbedürfnissen der Täter.
  • Ziel: Beeinträchtigung des sozialen Geltungswerts und der Würde der betroffenen Personen. Dies umfasst auch das unbefugte Nachahmen von Stimmen zur Täuschung oder Drohung und die gezielte Steuerung von Mimik und Gestik in Videos.

Lösungsansatz: Neue Strafbarkeit mit §201b StGB

Der Entwurf schlägt sodann die Einführung des § 201b StGB vor, der die Verletzung von Persönlichkeitsrechten durch digitale Fälschung unter Strafe stellt. Konkret soll bestraft werden, wer das einer Person verletzt, indem er einen manipulierten oder künstlich erzeugten Medieninhalt, der den Anschein einer authentischen Aufnahme erweckt, einer dritten Person zugänglich macht.

Besonders schwerwiegende Fälle, wie die öffentliche Zugänglichmachung oder die Darstellung höchstpersönlicher Lebensbereiche, sollen mit höheren Strafen belegt werden. So schlägt der Gesetzesentwurf folgendes System vor:

  1. § 201b Abs. 1 StGB: Bestrafung der Verletzung von Persönlichkeitsrechten durch das Zugänglichmachen von manipulierten oder künstlich erzeugten Medieninhalten.
  2. § 201b Abs. 2 StGB: Höhere Strafen bei öffentlicher Zugänglichmachung oder bei Inhalten, die den höchstpersönlichen Lebensbereich betreffen.
  3. § 201b Abs. 3 StGB: Ausnahmen für Handlungen im Interesse von Kunst, Wissenschaft, Forschung und Berichterstattung.
  4. § 201b Abs. 4 StGB: Möglichkeit der von verwendeten Bild- oder Tonträgern.

Das sieht dann als Gesetzestext so aus:

§ 201b – Verletzung von Persönlichkeitsrechten durch digitale Fälschung
(1) Wer das Persönlichkeitsrecht einer anderen Person verletzt, indem er einen mit computertechnischen Mitteln hergestellten oder veränderten Medieninhalt, der den Anschein einer wirklichkeitsgetreuen Bild- oder Tonaufnahme des äußeren Erscheinungsbildes, des Verhaltens oder mündlicher Äußerungen dieser Person erweckt, einer dritten Person zugänglich macht, wird mit bis zu zwei Jahren oder mit bestraft. Gleiches gilt, wenn sich die Tat nach Satz 1 auf eine verstorbene Person bezieht und deren Persönlichkeitsrecht dadurch schwerwiegend verletzt wird.

(2) Wer in den Fällen des Absatzes 1 Satz 1 den Medieninhalt der Öffentlichkeit zugänglich macht oder einen Medieninhalt zugänglich macht, der einen Vorgang des höchstpersönlichen Lebensbereichs zum Gegenstand hat, wird mit Freiheitsstrafe bis zu fünf Jahren oder mit Geldstrafe bestraft.

(3) Absatz 1 Satz 1, auch in Verbindung mit Absatz 2, gilt nicht für Handlungen, die in Wahrnehmung überwiegender berechtigter Interessen erfolgen, namentlich der Kunst oder der Wissenschaft, der Forschung oder der Lehre, der Berichterstattung über Vorgänge des Zeitgeschehens oder der Geschichte oder ähnlichen Zwecken dienen.

Ist ein neuer Straftatbestand denn notwendig?

In dem Gesetzentwurf geht man ausführlich darauf ein, dass die bisherige strafrechtliche Handhabung von Deepfakes unzureichend sein soll. Insgesamt dürfte sich die Rechtslage derzeit so darstellen:

  1. Allgemeine Straftatbestände
    • Verletzung der Vertraulichkeit des Wortes (§ 201 StGB): Deepfake-Generierung durch „Voice Cloning“ fällt grundsätzlich nicht unter § 201 StGB, da dieser nur das nichtöffentlich gesprochene Wort schützt. Bei „Voice Cloning“ handelt es sich um computertechnisch erzeugte Äußerungen, die keine tatsächlichen Äußerungen der betroffenen Person sind.
    • Datenschutzstrafrecht (§ 42 Abs. 2 BDSG): Die Strafbarkeit nach dem Bundesdatenschutzgesetz könnte in Fällen zutreffen, in denen unbefugt verarbeitet werden. Jedoch muss die Datenverarbeitung gegen Entgelt oder in Bereicherungs- oder Schädigungsabsicht erfolgen. Außerdem betrifft es hauptsächlich nicht allgemein zugängliche Daten.
    • Beleidigungsdelikte: Deepfake-Generierungen werden im Entwurf als problematisch dargestellt, da die Nachahmung der Stimme allein nicht als Beleidigungsdelikt erfasst werden kann.
  2. Kinder- und Jugendpornografische Inhalte
    • Verbreitung, Erwerb und Besitz von kinder- und jugendpornografischen Deepfakes (§§ 184b, 184c StGB): Diese Straftatbestände bieten umfassende Sanktionsmöglichkeiten und umfassen auch wirklichkeitsnahe Darstellungen. Diese Regelungen berücksichtigen jedoch sowohl den traditionellen Schutz vor der Wahrnehmung pornografischer Inhalte als auch den Persönlichkeitsschutz der betroffenen Kinder und Jugendlichen.
    • Erwachsene Opfer: Die bestehenden Regelungen (§§ 184, 184a StGB) erfassen nicht den spezifischen Unrechtsgehalt pornografischer Deepfakes bei Erwachsenen ausreichend. Sie dienen primär dem Jugendschutz und dem Schutz vor ungewollter Konfrontation mit Pornografie, nicht aber dem Persönlichkeitsschutz der abgebildeten Personen.
  3. Nicht pornografische Deepfakes
    • § 201a Abs. 2 Satz 1 StGB: Erfasst das unbefugte Verbreiten von Bildaufnahmen, die geeignet sind, dem Ansehen der abgebildeten Person erheblich zu schaden. Es bleibt jedoch unklar, ob dies auch auf computergenerierte oder manipulierte Bilder zutrifft.
    • Kunsturhebergesetz und Datenschutzrecht: Zwar kann das unbefugte Verbreiten oder öffentliche Zurschaustellen von manipulierten Bildern hiernach strafbar sein, aber der spezifische Unrechtsgehalt der Dekontextualisierung und Informationsmanipulation durch Deepfakes wird nicht vollständig erfasst (dazu auch Hartmann in DSRITB 2019, 563).
  4. Weitere strafrechtliche Regelungen
    • § 187 StGB (): Könnte in Betracht kommen, ist aber nicht eindeutig geklärt.
    • Spezifische Regelungen der EU: Eine kommende EU-Richtlinie zielt auf die Bekämpfung von Gewalt gegen Frauen und häusliche Gewalt und bezieht sich auf die Verbreitung intimen oder manipulierten Materials. Diese Regelung ist jedoch eng gefasst und betrifft hauptsächlich sexualbezogene Bildaufnahmen, die der betroffenen Person ernsthaften Schaden zufügen. Dazu kommt in der KI-Verordnung eine von Deepfakes (Art. 52 KIVO; dazu Hinderks in ZUM 2022, 110), die in solchen Fällen wohl kaum eingehalten wird und jedenfalls bei seriösen Plattformen zu einem schnelleren Löschen führen könnte.

Was bringt so ein Gesetz

Gesetzentwurf mit Schwächen

Das Thema rückt zunehmend auf die Agenda des Gesetzgebers, die USA haben es bereits im Fokus, nun rückt vielleicht Deutschland bei dem Thema nach. Dabei verbleibt an erster Stelle das generelle Problem der Gesetzgebung im Cybercrime: Wenn man ehrlich ist, geht es weniger vorrangig um die Pönalisierung von Verhalten denn um ein generalpräventives Verhindern von Cybercrime-Phänomenen. Dass das Strafrecht hierfür ein denkbar ungeeignetes Mittel ist – gerade bei international agierenden Kriminellen – hat die Kriminologie seit Jahrzehnten erkannt. Gleichwohl versucht man, vielleicht auch als Ausdruck einer gewissen Ohnmacht, „noch mehr Strafrecht“.

Fragwürdiger praktischer Einsatzbereich

Dabei ist der Ansatz ausdrücklich zu loben. Bis auf Vorgänge im privaten Umfeld, also im Kampf mit nationalstaatlich agierenden Stalkern, dürfte sich aber kaum ergeben, dass ein solcher Straftatbestand echte Relevanz in der Praxis entwickelt. Es verbliebe beim „zahnlosen Papiertiger“.

Wichtiger wären aus Sicht von Betroffenen sicherlich zivilrechtlich verbesserte Möglichkeiten – und vor allem, wenn man präventiv tätig sein möchte, wäre echte Vorgaben an Social-Media-Plattformen deutlich klüger. Dass etwa nicht gekennzeichnete Deepfakes sofort, also automatisiert, zu löschen sind. Ansonsten kommt das nächste Problem: Dass KI-/LLM-Systeme mit Fake-Inhalten trainiert werden und nicht nur qualitativ leiden, sondern beharrlich falsche Informationen zu Personen ausgeben (wobei sie das schon jetzt tun, nur dann nochmals kriminell intendiert).

Schwieriges gesetzgeberisches Klein-Klein

Sprachlich ist das mal wieder relativer Murks: Man schafft den neuen Begriff des „Medieninhalts“ der dem StGB fremd ist statt auf §11 Abs.3 StGB zu verweisen; man führt plötzlich ein unbegrenztes Persönlichkeitsrecht Verstorbener ein (wobei in der Begründung dann doch wieder das postmortale Persönlichkeitsrecht erwähnt wird); und zu guter Letzt versucht man sich an einer eigenen, eher haarsträubenden, Definition von „Deepfake“ anstelle kurzerhand auf die Definition in der KI-VO zurückzugreifen. Und die Regelung zur Einziehung ist die Krönung gesetzgeberischer Redundanz: Hier würde ohnehin §74 StGB greifen.


Ausblick

Der Entwurf hebt zu Recht hervor, dass die derzeitige Rechtslage unklar und unzureichend ist. Es gibt zwar eine Vielzahl von strafrechtlichen Regelungen, die im Zusammenhang mit Deepfakes einschlägig sein können, jedoch erfassen diese Regelungen das Phänomen nur teilweise und nicht in seinem vollen Unrechtskern. Der vorgeschlagene § 201b StGB soll daher gezielt den Persönlichkeitsschutz gegen die Verbreitung manipulierten oder künstlich erzeugten Medieninhalts stärken.

Einen Spaß hat man sich gemacht im Abschnitt „Alternativen“, wo man darstellen soll, ob es Alternativen zu, Gesetz gibt. Dort liest man:

Beibehaltung des bisherigen, unbefriedigenden Zustands.

Das ist irgendwie witzig, aber geht genau an dem wichtigen Punkt vorbei: Wie erzielt man einen echten Schutz für Betroffene. Der deutsche Gesetzgeber ist hier einfach zu geprägt von der fixen Idee, mit (billigen) Strafnormen die Bevölkerung zu beruhigen. Das Thema wird hiermit am Ende gar nicht geklärt, der Zustand verbleibt in der Praxis unbefriedigend. Betroffene wollen nicht, dass vielleicht irgendein Täter Jahre später irgendeine Strafe bekommt – sie wollen, dass die Inhalte gelöscht werden. Der Gesetzgeber sollte sich genau darum kümmern. Die Rechtsdurchsetzung in dem Bereich gegenüber Plattformen ist und bleibt ein Graus.

Der Gesetzesentwurf stellt dennoch einen wichtigen Schritt dar, um den strafrechtlichen Schutz vor den zunehmenden Gefahren durch Deepfakes zu stärken und zugleich eine gesellschaftspolitische Diskussion anzustoßen. Mit Blick auf die aktuelle politische Lage und die typischen Abläufe im Bundestag – gerade bei Vorschlägen aus einem Bundesland (dessen Regierung nicht der Bundesregierung von der Parteifarbe her angehört) – bin ich aber skeptisch, ob hieraus wirklich was wird.

Rechtsanwalt Jens Ferner (Fachanwalt für IT- & Strafrecht)
Benutzerbild von Rechtsanwalt Jens Ferner (Fachanwalt für IT- & Strafrecht)

Von Rechtsanwalt Jens Ferner (Fachanwalt für IT- & Strafrecht)

Ich bin Fachanwalt für Strafrecht + Fachanwalt für IT-Recht und widme mich beruflich ganz der Tätigkeit als Strafverteidiger und dem IT-Recht. Vor meinem Leben als Anwalt war ich Softwareentwickler. Ich bin Autor sowohl in einem renommierten StPO-Kommentar als auch in Fachzeitschriften.

Erreichbarkeit: Per Mail, Rückruf, Threema oder Whatsapp.

Unsere Kanzlei ist spezialisiert auf Starke Strafverteidigung, seriöses Wirtschaftsstrafrecht und anspruchsvolles IT-Recht / Technologierecht - ergänzt um Arbeitsrecht.