Deepfake

Bei einem Deepfake wird ein täuschend echtes virtuelles Bild einer Person geschaffen, die wie die originale person klingt, spricht und aussieht. Es ist mit üblicher Betrachtung bei einem guten Deepfake kaum mehr möglich, Original und Fälschung zu unterscheiden.

Diese „Deepfake-Technologie“ nutzt hierzu die Leistungsfähigkeit der Deep-Learning-Technologie für Audio- und audiovisuelle Inhalte. Richtig eingesetzt, können diese Modelle dann Inhalte produzieren, die absolute überzeugend den Anschein erwecken, dass Menschen Dinge sagen oder tun, die sie nie getan haben – oder auch Menschen erschaffen, die nie existiert haben!

Entwicklung von Deepfakes

Die technische Entwicklung von Deepfakes hat sich in den letzten Jahren rasant weiterentwickelt, insbesondere seit der Einführung generativer adversarialer Netzwerke (GANs) im Jahr 2014. Diese Technologie hat einen entscheidenden Sprung in der Qualität und Zugänglichkeit von Deepfakes ermöglicht. GANs bestehen aus zwei neuralen Netzwerken, die gegeneinander arbeiten: ein generatives Modell und ein diskriminierendes Modell.

Das generative Modell erstellt neue Inhalte auf der Grundlage der ihm zur Verfügung stehenden Trainingsdaten. Ziel ist es, die Merkmale dieser Daten so genau wie möglich zu erfassen und zu reproduzieren. Beispielsweise kann das generative Modell Bilder von Gesichtern erzeugen, die den realen Gesichtern in den Trainingsdaten fast identisch sehen. Dies geschieht, indem das Modell die statistischen Eigenschaften der Trainingsdaten lernt und nutzt, um neue, ähnliche Datenpunkte zu generieren.

Das diskriminierende Modell hingegen bewertet die vom generativen Modell erzeugten Inhalte. Es versucht zu bestimmen, ob ein gegebenes Beispiel aus den tatsächlichen Trainingsdaten stammt oder vom generativen Modell erzeugt wurde. Dabei handelt es sich um eine Form des überwachten Lernens, bei der das diskriminierende Modell lernt, zwischen echten und gefälschten Daten zu unterscheiden. Dieses Wechselspiel führt dazu, dass das generative Modell immer bessere Fälschungen erzeugen muss, um das diskriminierende Modell zu täuschen.

Diese fortlaufende „Auseinandersetzung“ zwischen den beiden Modellen führt zu einer stetigen Verbesserung der Qualität der generierten Inhalte. Mit der Zeit erzeugt das generative Modell immer realistischere und überzeugendere Daten, was zu den hoch realistischen Deepfakes führt, die wir heute sehen. Die Fortschritte in der Rechenleistung und die Verfügbarkeit großer Datensätze haben diese Entwicklung zusätzlich beschleunigt.

Ein weiterer wichtiger Faktor in der Entwicklung von Deepfakes ist die zunehmende Zugänglichkeit der Technologie. Ursprünglich erforderte die Erstellung von Deepfakes tiefgehende technische Kenntnisse und erhebliche Rechenressourcen. Heute stehen jedoch benutzerfreundliche Softwaretools und vortrainierte Modelle zur Verfügung, die es auch technisch weniger versierten Nutzern ermöglichen, Deepfakes zu erstellen. Diese Demokratisierung der Technologie hat zwar zu einer breiteren Anwendung geführt, birgt aber auch erhebliche Risiken für Missbrauch und ethische Bedenken.


Gesetzgeberische Entwicklungen zu Deepfakes

Mehrere Staaten und Regionen haben Maßnahmen ergriffen oder planen, Deepfakes gesetzlich zu regulieren:

  1. Deutschland: In Deutschland gibt es bislang keine speziellen rechtlichen Regelungen für Deepfakes, erste Schritte sind aber geplant (Link siehe unten). Zurzeit wird das Phänomen durch Normen aus verschiedenen Rechtsgebieten mehr oder minder brauchbar erfasst, wie dem allgemeinen und der -Grundverordnung ().
  2. Europäische Union: Die EU hat umfassende Regelungen im Rahmen des Digital Services Act (DSA) und des AI Act beschlossen. Diese beinhalten unter anderem Transparenzanforderungen, die Offenlegung, dass Inhalte durch KI generiert wurden, und Maßnahmen zur Verhinderung der Erzeugung illegaler Inhalte. Der AI Act der Europäischen Union (EU) befasst sich unter anderem mit der Regulierung von Deepfakes, also künstlich erzeugten oder manipulierten Medieninhalten. Er verfolgt einen präventiven Ansatz zur Regulierung von Deepfakes durch Transparenz- und Kennzeichnungspflichten sowie die Förderung von Verhaltenskodizes. Obwohl Deepfakes als Systeme mit „begrenztem Risiko“ eingestuft werden, könnten in Zukunft Anpassungen des Regulierungsrahmens erforderlich sein, um den Herausforderungen und Risiken dieser Technologie besser gerecht zu werden. Gemäß Art. 52(3) AI Act müssen die Ersteller von Deepfakes offenlegen, dass der Inhalt künstlich erzeugt oder manipuliert wurde. Diese Transparenzpflicht umfasst die Offenlegung der künstlichen Herkunft und der verwendeten Techniken. Ziel ist es, den Verbrauchern die notwendigen Informationen zur Verfügung zu stellen, damit sie manipulierte Inhalte besser erkennen können und somit weniger anfällig für Täuschungen sind. Der Digital Services Act (DSA) der EU sieht zudem die Kennzeichnung von Deepfakes vor, wenn Nutzer diese fälschlicherweise für echt halten könnten.
  3. : China hat im Januar umfassende Regularien gegen Deepfakes eingeführt. Diese beinhalten unter anderem die Verpflichtung zur Registrierung von Produzenten und Nutzern von Deepfake-Dienstleistungen sowie die Kennzeichnung von KI-generierten Inhalten.
  4. Österreich: Österreich hat ein internationales Verbot für Deepfake-Technik ins Spiel gebracht und plant verstärkte Maßnahmen gegen Deepfakes.
  5. Tschechien: Tschechien plant, Deepfake-Pornografie strafbar zu machen, um den Missbrauch von KI zur Erstellung gefälschter Nacktbilder zu verhindern.
  6. Vereinigte Staaten: In den USA wird intensiv über Sanktionen für Deepfake-Pornografie diskutiert. Es gibt Bestrebungen, neue Straftatbestände einzuführen und den Opfern das Recht zu geben, die Urheber auf Schadensersatz zu verklagen.

Gefahren durch Deepfakes

Europol warnte in seinem ersten Report zum Thema davor, dass die Einführung von 5G die Konnektivität und Kommunikation innerhalb der Strafverfolgungsbehörden verbessern – ebenso die Privatsphäre und die Sicherheit von Organisationen und Einzelpersonen. Allerdings äußert man die Sorge, dass diese Vorteile auch von Kriminellen für ihre Straftaten genutzt werden könnten. Die zusätzliche Bandbreite, die neue Kommunikationstechnologien wie 5G bieten, ermöglicht es den Angreifern, die Leistung des Cloud-Computing zu nutzen, um Videoströme in Echtzeit zu manipulieren. Deepfake-Technologien können daher bei Videokonferenzen, Live-Streaming-Videodiensten und im Fernsehen eingesetzt werden.


Regulierung von Deepfakes

Aktuelle Rechtslage zur Herstellung und Verwendung von Deepfakes: In Deutschland gibt es keine spezifischen Gesetze, die die Herstellung oder Verwendung von Deepfakes direkt regeln. Stattdessen werden Deepfakes durch eine Vielzahl bestehender Rechtsvorschriften erfasst:

  1. Datenschutzrecht: Soweit betroffen sind, gelten die Datenschutz-Grundverordnung (DSGVO) und das Recht auf Achtung des Privat- und Familienlebens gemäß Art. 8 der Europäischen Menschenrechtskonvention (EMRK).
  2. Digital Services Act (DSA): Art. 35 Abs. 1 lit. k DSA sieht die Kennzeichnung von Deepfakes vor, wenn diese fälschlicherweise für echt gehalten werden könnten.
  3. Allgemeines Persönlichkeitsrecht: Das allgemeine Persönlichkeitsrecht aus Art. 2 Abs. 1 (GG) spielt eine zentrale Rolle bei der Beurteilung der Zulässigkeit von Deepfakes.

Zivilrechtliche Ansprüche

Unterlassungs- und Schadensersatzansprüche können über die zivilrechtlichen Einfallstore der §§ 1004 und 823 Bürgerliches Gesetzbuch (BGB) geltend gemacht werden. Das hat klargestellt, dass der Schutz des allgemeinen Persönlichkeitsrechts stärker wiegt, je weniger offensichtlich die Manipulation eines Bildes ist. Zusätzliche zivilrechtliche Ansprüche ergeben sich aus den §§ 22 f. Kunsturhebergesetz (KUG) und, wenn urheberrechtlich geschütztes Material verwendet wird, aus dem Urheberrechtsgesetz (UrhG).

Strafrechtliche Aspekte

Eine Strafbarkeit von Deepfakes kann sich insbesondere bei Beleidigungsdelikten, falscher Verdächtigung oder gemäß § 201a StGB ergeben. Weitere mögliche Straftatbestände sind § 33 KUG, § 106 UrhG und § 108 UrhG.

Aktuelle Initiativen zur Regulierung von Deepfakes

Der Unionsgesetzgeber plant, einige Risikominderungsmaßnahmen des DSA als verbindliche Vorgaben festzulegen. Dazu gehört eine für Deepfakes, die in Art. 52 Abs. 3 des Entwurfs einer Verordnung über künstliche Intelligenz (KI-VO-E) vorgesehen ist. Diese Vorschrift verlangt, dass Nutzer eines KI-Systems, das Deepfakes erzeugt, offenlegen müssen, dass die Inhalte künstlich erzeugt oder manipuliert wurden.

Diskussion um erweiterte Kennzeichnungspflichten

Es wird diskutiert, ob eine noch weitergehende Kennzeichnungspflicht eingeführt werden sollte, die über die bestehenden Vorgaben hinausgeht. Diese könnte eine absolute Kennzeichnungspflicht beinhalten, bei der jeder Deepfake-Inhalt gut sichtbar als solcher gekennzeichnet werden muss. Eine solche Regelung würde auch die in Art. 52 Abs. 3 KI-VO-E vorgesehenen Ausnahmen für Zwecke der Meinungs-, Kunst- und Wissenschaftsfreiheit entfallen lassen.

Fazit: Die aktuelle rechtliche Landschaft in Deutschland erfasst Deepfakes durch eine Kombination verschiedener Rechtsgebiete. Zukünftige Initiativen auf EU-Ebene könnten jedoch spezifischere und verbindlichere Regelungen einführen, um die Transparenz und den Schutz der Betroffenen zu erhöhen.

Rechtsanwalt Jens Ferner (Fachanwalt für IT- & Strafrecht)
Benutzerbild von Rechtsanwalt Jens Ferner (Fachanwalt für IT- & Strafrecht)

Von Rechtsanwalt Jens Ferner (Fachanwalt für IT- & Strafrecht)

Ich bin Fachanwalt für Strafrecht + Fachanwalt für IT-Recht und widme mich beruflich ganz der Tätigkeit als Strafverteidiger und dem IT-Recht. Vor meinem Leben als Anwalt war ich Softwareentwickler. Ich bin Autor sowohl in einem renommierten StPO-Kommentar als auch in Fachzeitschriften.

Erreichbarkeit: Per Mail, Rückruf, Threema oder Whatsapp.

Unsere Kanzlei ist spezialisiert auf Starke Strafverteidigung, seriöses Wirtschaftsstrafrecht und anspruchsvolles IT-Recht / Technologierecht - ergänzt um Arbeitsrecht.