Gesetz gegen digitale Gewalt (2026): Ein Entwurf, der mehr verspricht als er hält

Wenn ein Gesetz nach dem Phänomen benannt wird, das es bekämpfen soll, ist Skepsis angebracht. Der Referentenentwurf des Bundesjustizministeriums für ein „Gesetz zur Stärkung des zivilrechtlichen und strafrechtlichen Schutzes vor digitaler Gewalt“ vom April 2026 trägt seinen politischen Auftrag schon im Titel. Bundesjustizministerin Hubig will damit auf eine Welle medial sichtbarer Fälle reagieren – von gefälschten Pornovideos bis zu heimlichen Aufnahmen mit Smart Glasses – und legt dafür ein Bündel aus neuen Straftatbeständen, Plattformpflichten und einem zivilrechtlichen Auskunfts‑ und Sperrverfahren vor. Der Entwurf hat juristisches Gewicht, aber er hat auch Schwächen, die weit über handwerkliche Details hinausgehen.

Anlass und politischer Hintergrund

Den unmittelbaren Anschub gab der Fall Collien Fernandes. Pornografische Deepfakes und Fake‑Profile lösten eine öffentliche Debatte über sexualisierte digitale Gewalt aus, an der sich neben der Bundesregierung auch der Bundesrat, der Deutsche Anwaltverein und der Deutsche Juristinnenbund beteiligt haben. Parallel dazu wurde durch Recherchen des SWR sichtbar, dass Frauen zunehmend mit Smart Glasses heimlich gefilmt werden – auf Volksfesten, am Strand, in Saunen – und die Aufnahmen anschließend in einschlägigen Foren landen.

Hubig hat den Entwurf auf diese Phänomene zugeschnitten. Drei neue Straftatbestände stehen im Mittelpunkt: das Verbot der Herstellung und Verbreitung intimer Bilder – echt oder KI‑generiert –, eine Strafbarkeit täuschender Deepfakes mit rufschädigender Wirkung und ein Verbot digitaler Überwachung etwa durch GPS‑Tracker oder Spyware. Flankierend kommt ein neues Stammgesetz, das Betroffenen ein gerichtliches Verfahren auf Auskunft, Löschung und Accountsperre gegenüber Plattformen eröffnet, abgesichert durch eine dreimonatige IP‑Adressen‑Speicherung.

Was der Entwurf tatsächlich regelt

Strafrechtlich knüpft der Entwurf an den 201a‑Komplex und die §§ 184 ff. StGB an, statt eine völlig neue Systematik zu schaffen. Das ist sinnvoll, weil so vorhandene Dogmatik weitergetragen wird, hat aber den Preis, dass die Strafrahmen sich an die ohnehin als zu niedrig empfundenen Grundtatbestände anlehnen: Bis zu zwei Jahre Freiheitsstrafe oder Geldstrafe sind in der Grundvariante vorgesehen. Bereits die Herstellung unerwünschter Intimaufnahmen soll strafbar werden, nicht erst deren Verbreitung – ein dogmatisch nachvollziehbarer Schritt, weil die Rechtsgutsverletzung mit dem Auslösen des Auslösers entsteht:

NormÄnderungSchutzgut / StoßrichtungStrafrahmen
§ 184k StGB (neu gefasst als „Verletzung der Intimsphäre durch Bildaufnahmen“)Erweiterung um die Herstellung unerwünschter intimer Bild‑ und Videoaufnahmen, ausdrücklich auch KI‑generierter Inhalte (sexualisierte Deepfakes) Sexuelle Selbstbestimmung, Schutz vor bildbasierter sexualisierter GewaltFreiheitsstrafe bis zu 2 Jahren oder Geldstrafe
§ 201a StGBErweiterung des Bildaufnahmenschutzes auf täuschend echte, manipulierte Aufnahmen sowie Klarstellung für heimliche Aufnahmen in Sauna, Umkleide, ToiletteHöchstpersönlicher Lebensbereich, Recht am eigenen BildBis zu 2 Jahre Freiheitsstrafe oder Geldstrafe (Grundtatbestand)
Neuer Tatbestand „Täuschende Deepfakes“ in § 201b StGB („Verletzung von Persönlichkeitsrechten durch täuschende Inhalte“)Strafbarkeit von Deepfakes, die geeignet sind, das Ansehen einer Person erheblich zu schädigen, auch außerhalb des sexuellen BereichsPersönlichkeitsrecht, Ehre, informationelle SelbstbestimmungFreiheitsstrafe bis zu 2 Jahren oder Geldstrafe
Neuer Tatbestand „Digitale Überwachung“ in §202e StGB („Unbefugte Überwachung mittels Informations- oder Kommunikationstechnik“)Strafbarkeit des heimlichen Einsatzes von Stalkingware, GPS‑Trackern und Spyware gegen PersonenPrivatsphäre, Schutz vor CyberstalkingFreiheitsstrafe bis zu 2 Jahren oder Geldstrafe
§§ 184b, 184c StGB (Bezugnahmen)Klarstellende Verweise im Zusammenhang mit KI‑generierten Darstellungen MinderjährigerSchutz Minderjähriger vor synthetisch erzeugten MissbrauchsdarstellungenBestehende Strafrahmen

Dabei beachten: Zugleich sollen die Auskunfts‑ und Sicherungsmöglichkeiten gegenüber Diensteanbietern erweitert werden, insbesondere durch eine dreimonatige IP‑Adressen‑Speicherung zum Zweck der Identifizierung von Tätern. Außerdem soll der Katalog der Anlasstaten für bestimmte Ermittlungsmaßnahmen um die neuen Tatbestände ergänzt werden, damit Plattformauskünfte und Sicherungsanordnungen praktisch greifen.

Zivilrechtlich ist der Entwurf im Übrigen der ehrgeizigere Teil. Er bündelt Auskunfts‑ und Sperransprüche gegen Diensteanbieter in einem speziellen Verfahren und versucht, die im Persönlichkeitsrechtsschutz seit Langem bekannten Vollzugsprobleme zu adressieren – also die Frage, wie ein Betroffener an die Identität eines anonymen Täters auf einer Plattform gelangt. Der Entwurf flankiert das Strafrecht, weil viele Konstellationen unterhalb der Strafbarkeitsschwelle bleiben, in denen das Persönlichkeitsrecht aber schwer verletzt sein kann.

Die Kritik: zu eng, zu unscharf, zu symbolisch

Die Kritik kommt aus mehreren Richtungen: Der Deutsche Anwaltverein hält den Entwurf in Teilen für überschießend – die Begriffe „digitale Gewalt“ und „täuschender Deepfake mit rufschädigender Wirkung“ seien zu unbestimmt und kollidierten mit der Meinungs‑, Kunst‑ und Pressefreiheit aus Art. 5 GG. Satire, politische Aufklärung und künstlerische Fakes könnten ungewollt in den Tatbestand geraten. Zugleich kritisiert der DAV die niedrigen Schwellen im zivilrechtlichen Auskunftsverfahren und sieht in der dreimonatigen IP‑Speicherung eine Annäherung an die anlasslose Vorratsdatenspeicherung, die der EuGH in ständiger Rechtsprechung verworfen hat.

Der Bundesrat geht in die Gegenrichtung: Ihm sind die Strafrahmen zu niedrig, die Plattformpflichten zu schwach, die Schnittstelle zum Digital Services Act zu unklar. Er fordert eine Stärkung der Opferrechte im Strafverfahren, höhere Höchststrafen für sexualisierte Deepfakes und ländertaugliche Strukturen für Beratungsstellen und Schwerpunktstaatsanwaltschaften. Eine ähnliche Stoßrichtung verfolgen Stimmen aus Wissenschaft und Politik, die den Entwurf für „symbolisch“ halten – also für ein Gesetz, dessen Wirkung am Vollzug scheitern dürfte, weil Justiz und IT‑Forensik nicht mitziehen. Allerdings mag man ebenso fragen, ob das auf ein Geschlecht fixiert sein hier so angemessen ist.

Beide Kritiklinien lassen sich auf eine auch von mir geteilte Kritik herunterbrechen: Der Entwurf will viel und sagt zugleich wenig Präzises. Das beginnt bei der Sprache. Wer einen Tatbestand aus Begriffen wie „digitale Gewalt“ oder „rufschädigend“ baut, ohne sie strafrechtlich konturiert zu unterfüttern, lädt entweder zur Überdehnung in der Praxis ein oder produziert tote Buchstaben. Beides ist im Strafrecht nicht akzeptabel, weil Art. 103 II GG eine andere Sprache verlangt: nicht die der politischen Adressierung, sondern die der bestimmbaren Tatbestandsmerkmale. Der Entwurf wirkt an dieser Stelle, als sei er aus einer Pressemitteilung in einen Gesetzestext überführt worden, ohne den Aggregatzustand wirklich zu wechseln.

Lücken des Entwurfs am Beispiel Smart Glasses

Wie sehr der Entwurf an der Realität vorbeischrammt, zeigt der Umgang mit Smart Glasses: Brillen wie das Meta/Ray‑Ban‑Modell verbergen Kamera und Mikrofon im Gestell, die Aufnahme erfolgt lautlos, das LED‑Lämpchen lässt sich übersehen oder abkleben. Die SWR‑Recherchen vom Mai 2026 zeigen, dass diese Geräte längst gezielt eingesetzt werden, um Frauen heimlich zu filmen, und dass das Justizministerium auf entsprechende Nachfragen pauschal auf die Strafverfolgungsbehörden verweist, statt die konkrete Lücke zu adressieren.

In meiner Kommentierung zu § 8 TDDDG im BeckOK StPO (BeckOK StPO/Ferner TDDDG § 8 Rn. 15-15a) habe ich bereits argumentiert, dass die Brillen den Tatbestand des § 8 erfüllen können, und zwar dann, wenn sie absichtlich in Situationen getragen werden, in denen mit Aufnahmen nicht zu rechnen ist – spätestens das Überkleben der LED öffnet die Strafbarkeit. Die Einordnung ist nicht produktbezogen, sondern kontextabhängig: Nicht das Gerät ist verboten, sondern sein heimlicher Einsatz im Sozialraum. Genau diese kontextuelle Logik fehlt dem Referentenentwurf. Er adressiert das Phänomen nicht über das Tatmittel, sondern verlässt sich darauf, dass die nachgelagerten Tatbestände der Verbreitung und Herstellung greifen werden – obwohl in der Praxis bereits die Aufnahme das eigentliche Unrecht darstellt und Beweisprobleme genau dort entstehen, wo das Opfer von der Aufnahme nichts mitbekommt.

Hinzu kommt die Cloud‑ und KI‑Dimension. Die Brillen sind keine isolierten Geräte, sondern Eingangstor in ein Backend, das Stimmen, Mimik und Gesichter auswerten kann. Der Entwurf ignoriert diese Architektur – er denkt in Bildern, nicht in Datenströmen. Wer die Strafbarkeit an der Bildveröffentlichung festmacht, lässt einen erheblichen Teil dessen, was Smart Glasses gefährlich macht, außerhalb des Schutzbereichs liegen. Auch die strafprozessuale Frage des Beweisverwertungsverbots bei heimlich erstellten Videoaufnahmen wird vom Entwurf nicht aufgegriffen, obwohl gerade die Anknüpfung an die aktuelle Rechtsprechung des OLG Köln zeigt doch, dass die Rechtsprechung die Schutzbedürftigkeit der gefilmten Person bereits ernster nimmt als der Gesetzgeber.

Sprachliche Defizite als rechtsstaatliches Problem

Die sprachliche Schwäche des Entwurfs ist kein kosmetisches, sondern ein rechtsstaatliches Problem. Begriffe wie „digitale Gewalt“ stammen aus der Politikberatung, nicht aus dem Strafrecht. Sie tragen eine Bewertung in den Tatbestand, die dort nichts verloren hat, und sie verhindern, dass Verteidigung und Gerichte mit klaren Konturen arbeiten können. Wer sich die Mühe macht, den Entwurf neben den 201a‑Komplex zu legen, sieht den Stilbruch sofort: Hier dogmatisch ausgearbeitete Schutzgüter, dort eine Sammlung emotional aufgeladener Sammelbegriffe.

Hinzu kommt eine Tendenz zur Doppelregulierung. Der Digital Services Act regelt Plattformpflichten auf europäischer Ebene, das deutsche Telemedienrecht knüpft daran an, das geplante Gesetz baut darüber eine dritte Schicht. Wenn der Bundesrat fordert, die Schnittstellen zu klären, ist das nicht bürokratische Pedanterie, sondern eine Mindestanforderung an handwerkliche Sauberkeit. Ein Strafverteidiger, der sich später mit einem Fall sexualisierter Deepfakes befasst, wird sich durch drei Regelungsregime arbeiten müssen, die nicht aufeinander abgestimmt sind – mit absehbaren Folgen für Verfahrensdauer und Rechtssicherheit.

Fazit aus Sicht der Strafverteidigung

Rechtsanwalt Jens Ferner, TOP-Strafverteidiger und IT-Rechts-Experte - Fachanwalt für Strafrecht und Fachanwalt für IT-Recht

Der Entwurf adressiert reale Probleme, aber er löst sie nicht überzeugend. Strafrechtlich ist er an Stellen unscharf, an denen Art. 103 II GG Schärfe verlangt; zivilrechtlich ist er ambitioniert, ohne die datenschutzrechtlichen Folgekosten zu reflektieren; technisch ist er rückwärtsgewandt, weil er Phänomene wie Smart Glasses und KI‑Backends nicht als das adressiert, was sie sind, nämlich integrierte Systeme. Die politische Geste ist verständlich, die handwerkliche Umsetzung bleibt – wieder einmal – hinter dem zurück, was ein Strafgesetz leisten muss.

Wer den Entwurf ernst nimmt, sollte ihn nicht durchwinken, sondern auf die zentralen Punkte zurückführen: präzise Tatbestände, ein Auskunftsverfahren mit echter gerichtlicher Kontrolle, eine klare Schnittstelle zum DSA – und eine Sprache, die strafrechtlich tragfähig ist. Bis dahin bleibt das geltende Recht, einschließlich § 8 TDDDG, oft die einzige praktikable Antwort auf Phänomene, die der Gesetzgeber gerade erst entdeckt zu haben scheint.

Rechtsanwalt Jens Ferner
Rechtsanwalt Jens Ferner

Von Rechtsanwalt Jens Ferner

Rechtsanwalt Jens Ferner ist renommierter Strafverteidiger im gesamten Strafrecht samt Managerhaftung (mit Schwerpunkt Wirtschaftskriminalität und Cybercrime) sowie Spezialist im IT-Recht mit Schwerpunkt Softwarerecht und digitale Beweismittel. Als Fachanwalt für Strafrecht + IT-Recht verteidigt er Mandanten in anspruchsvollen Strafverfahren, speziell an der Schnittstelle von Strafrecht & IT-Recht und berät in komplexen Softwareprojekten.

Rechtsanwalt Jens Ferner ist Lehrbeauftragter für Wirtschaftsstrafrecht und IT-Compliance (FH Aachen), Softwareentwickler, fortgebildet in Kommunikationspsychologie und publiziert fortlaufend.

Erreichbarkeit: Erstkontakt per Mail oder Rückruf.

Unsere Anwaltskanzlei im Raum Aachen ist hochspezialisiert auf Strafverteidigung, Cybercrime, Wirtschaftsstrafrecht samt Steuerstrafrecht. Zudem sind wir für Unternehmen im Softwarerecht und Cybersicherheitsrecht beratend tätig.