Das Büro ist über Karneval vom 12.02 bis 17.02. geschlossen - Notruf erreichbar

Weisses Haus nutzt Deepfake für Diskreditierung

KI-manipulierte Bilder als Instrument staatlicher Propaganda

Wieder einmal aus den USA wird deutlich gemacht, wie die (noch bestehende) Grenze zwischen authentischer Dokumentation und synthetischer Fiktion zunehmend in einer Weise verschwimmt, die demokratiepolitisch hochproblematisch ist: ein aktueller Vorfall aus den Vereinigten Staaten illustriert dies mit beunruhigender Deutlichkeit: Das Weiße Haus verbreitete über seine offiziellen Social-Media-Kanäle ein Foto der Bürgerrechtsaktivistin Nekima Levy Armstrong, das mittels Künstlicher Intelligenz manipuliert worden war.

Während das Originalbild Armstrong nach ihrer Festnahme bei einem Protest gegen die US-Einwanderungsbehörde ICE mit gefasster Miene zeigte, fügte die bearbeitete Version Tränen hinzu, dunkelte ihren Hautton und inszenierte sie als emotional zusammengebrochene Person. Die offizielle Reaktion auf die Kritik an dieser Manipulation fiel denkbar lapidar aus: „The memes will continue.“

Was auf den ersten Blick wie ein weiterer Skandal im Strom digitaler Empörung erscheinen mag, markiert tatsächlich eine Zäsur in der Geschichte staatlicher Kommunikation. Erstmals setzt eine westliche Regierung KI-Deepfake-Technologie offen und ohne Kennzeichnung ein, um eine politische Gegnerin zu diskreditieren.

Die auf der Hand liegende Frage reicht weit über den Einzelfall hinaus: Welche rechtlichen Grenzen gelten – von unserem europäischen Rechtskontext ausgehend – für staatliche Akteure, wenn sie mittels generativer KI reale Aufnahmen zu Propagandazwecken manipulieren? Und welche Konsequenzen ergeben sich aus europäischer Rechtsperspektive, wenn das institutionelle Vertrauen in visuelle Evidenz systematisch untergraben wird?

KI-VO

Natürlich kommt die KI-VO als Erstes … mit dieser im August 2024 in Kraft getretenen KI-Verordnung hat die Europäische Union weltweit das erste umfassende Regulierungsregime für Künstliche Intelligenz geschaffen. Anders als nationale Gesetzgebungen beschränkt sich der Anwendungsbereich nicht auf das Territorium der Mitgliedstaaten oder auf EU-ansässige Unternehmen. Nach dem Vorbild der Datenschutz-Grundverordnung greift der AI Act auch extraterritorial, wenn der durch ein KI-System erzeugte Output in der EU verwendet wird. Diese weitreichende Jurisdiktionsklausel erfasst damit grundsätzlich auch Manipulationen durch ausländische Regierungen, sofern deren Inhalte europäische Bürger erreichen – was bei der globalen Verbreitung über Social-Media-Plattformen regelmäßig der Fall ist.

Die Verordnung normiert in Artikel 50 detaillierte Transparenzpflichten für synthetische Inhalte, die ab August 2026 vollständig durchsetzbar sind. Wer KI-Systeme nutzt, um Bild-, Video- oder Audioinhalte zu generieren oder zu manipulieren, muss sicherstellen, dass die Outputs als künstlich erzeugt erkennbar sind. Dies gilt insbesondere für sogenannte Deepfakes – KI-manipulierte Inhalte, die existierenden Personen ähneln und einer Person fälschlicherweise authentisch erscheinen würden. Die einzige Ausnahme betrifft legitime Strafverfolgungszwecke, wenn dies gesetzlich ausdrücklich zugelassen ist.

Das vom Weißen Haus verbreitete Bild erfüllt wohl sämtliche Tatbestandsmerkmale eines kennzeichnungspflichtigen Deepfakes, enthielt jedoch keinerlei Hinweis auf die digitale Manipulation. Der begleitende Text bezeichnete Armstrong lediglich als „festgenommene linksextreme Agitatorin“, ohne die Bearbeitung zu erwähnen. Diese fehlende Transparenz stellt nicht nur einen technischen Verstoß dar, sondern untergräbt den Kernzweck der Regelung: die Integrität des öffentlichen Informationsraums zu wahren.

Noch gravierender ist der potentielle Verstoß gegen Artikel 5 der KI-Verordnung, der bestimmte KI-Praktiken absolut verbietet. Erfasst sind Systeme, die manipulative oder täuschende Techniken einsetzen, um das Verhalten von Personen materiell zu verzerren und dadurch erheblichen Schaden zuzufügen. Die bewusste Veränderung eines Fotos, um eine Aktivistin weinend statt gefasst darzustellen, zielt darauf ab, die Wahrnehmung der Öffentlichkeit systematisch zu beeinflussen. Bürger, die das manipulierte Bild sehen, könnten ihre politische Haltung zu Einwanderungspolitik, Aktivismus oder staatlichem Durchgreifen auf Basis falscher visueller Informationen formen. Die Fähigkeit zu einer informierten Entscheidung wird durch die Täuschung erheblich beeinträchtigt – genau jener Effekt, den Artikel 5 unterbinden will.

Grundrechte: Schutzschild gegen staatliche Informationsmanipulation?

Die europäische Grundrechteordnung kennt einen robusten Schutz der Informationsfreiheit, der über die bloße Abwehr staatlicher Zensur hinausgeht. Artikel 11 der EU-Grundrechtecharta garantiert nicht nur das Recht, Informationen zu empfangen und weiterzugeben, sondern impliziert auch eine strukturelle Verpflichtung des Staates, den Informationsraum nicht durch systematische Desinformation zu vergiften. Diese positive Schutzpflicht wurde vom Europäischen Gerichtshof für Menschenrechte wiederholt betont: Staaten haben die Aufgabe, einen funktionierenden Medienpluralismus zu gewährleisten und die Grundlagen freier Meinungsbildung zu schützen.

Wenn jedoch staatliche Akteure selbst als Produzenten von Desinformation auftreten, entsteht ein Problem in der Anwendung: Regierungsstellen genießen strukturell ein höheres Vertrauen als private Quellen, weil Bürger erwarten, dass öffentliche Institutionen zur Wahrhaftigkeit verpflichtet sind. Diese Vertrauensstellung wird durch KI-Manipulation systematisch ausgenutzt: Das manipulierte Bild erreicht eine höhere Glaubwürdigkeit, gerade weil es von offizieller Seite verbreitet wird. Der Schaden potenziert sich, denn nicht nur die unmittelbare Täuschung, sondern der langfristige Vertrauensverlust in staatliche Institutionen ist die Konsequenz.

Die Problematik berührt auch verfahrensrechtliche Garantien, die in demokratischen Rechtsstaaten als unveräußerlich gelten. Die Unschuldsvermutung – verankert in Artikel 48 der EU-Grundrechtecharta und Artikel 6 der Europäischen Menschenrechtskonvention – verbietet staatlichen Behörden, vor rechtskräftiger Schuldfeststellung schuldzuweisende Äußerungen zu machen. Dies gilt nicht nur für explizite verbale Beschuldigungen, sondern auch für visuelle Darstellungen, die suggerieren, der Betroffene sei zusammengebrochen oder habe die Tat bereut. Ein manipuliertes Bild, das eine festgenommene Aktivistin weinend zeigt, kann als mediale Vorverurteilung wirken und ihre Unschuldsvermutung untergraben; selbst wenn das Weiße Haus formal nicht Anklagebehörde ist, kann die massive öffentliche Diskreditierung durch eine Regierungsstelle den Grundsatz des fairen Verfahrens verletzen.

Deutsches Verfassungsrecht

Das deutsche Verfassungsrecht kennt zwar keinen Anspruch des Bürgers auf Bereitstellung von Informationen durch den Staat. Wenn die öffentliche Hand jedoch aktiv informiert, greifen rechtsstaatliche Bindungen, die vom Bundesverfassungsgericht in recht klaren Entscheidungen entwickelt wurden. Das BVerfG hat etwa klargestellt, dass staatliche Informationstätigkeit dem Gebot der Richtigkeit und Sachlichkeit unterliegt, das aus dem Rechtsstaatsprinzip nach Artikel 20 Absatz 3 Grundgesetz fließt. Diese Vorgaben sind keine bloßen Programmsätze, sondern rechtlich durchsetzbare Anforderungen.

Das Richtigkeitsgebot verlangt, dass staatliche Informationen inkl. polizeiliche Verlautbarungen objektiv zutreffend sind. Verfälschende oder auf vorsätzlich falschen Tatsachenbehauptungen beruhende Äußerungen sind unzulässig, insbesondere wenn der Staat Einzelpersonen namentlich benennt und beschuldigt. Bei nicht abgeschlossenem Erkenntnisstand besteht eine Pflicht zur Offenlegung der Unsicherheit. Das Sachlichkeitsgebot ergänzt dies um die Forderung, dass herabsetzende oder stigmatisierende Darstellungen zu unterlassen sind.

Die bewusste Manipulation eines Fotos, um eine Aktivistin weinend darzustellen, während sie tatsächlich gefasst war, verstößt evident gegen beide Gebote. Es handelt sich um eine vorsätzliche Verfälschung visueller Tatsachen mit dem erkennbaren Ziel der öffentlichen Herabsetzung. Eine solche Praxis kollidiert auch mit dem aus dem Rechtsstaatsprinzip fließenden Grundsatz des Vertrauensschutzes: Bürger müssen darauf vertrauen dürfen, dass staatliches Handeln berechenbar und verlässlich ist. Dieses Vertrauen erstreckt sich auch auf staatliche Kommunikation – die systematische Verbreitung manipulierter Inhalte durch Regierungsstellen zerstört diese Verlässlichkeit und untergräbt die Legitimität staatlichen Handelns.

Besonders zu betonen ist an der Stelle für mich die verfassungsgerichtliche Rechtsprechung zu bewusst oder erwiesen unwahren Tatsachenbehauptungen: Diese sind vom Schutz der Meinungsfreiheit nach Artikel 5 Grundgesetz ausgenommen, weil unrichtige Information kein schützenswertes Gut darstelle. Wenn bereits private Akteure sich nicht auf Meinungsfreiheit berufen können, um bewusst falsche Tatsachen zu verbreiten, muss dies umso mehr für staatliche Akteure gelten, die einer besonderen Wahrhaftigkeitspflicht unterliegen. Ein Staat, der manipulierte Bilder als authentisch präsentiert, kann sich nicht auf Kommunikationsfreiheit berufen – er verletzt vielmehr die Grundrechte der Bürger auf informierte Meinungsbildung.

Völkerrechtliche Dimension

Der Internationale Pakt über bürgerliche und politische Rechte (IPBPR) garantiert in Artikel 19 das universelle Recht auf Meinungsfreiheit, einschließlich der Freiheit, Informationen jeder Art ohne Rücksicht auf Grenzen zu suchen, zu empfangen und weiterzugeben. Der UN-Menschenrechtsausschuss hat in seinen Kommentierungen klargestellt, dass dieses Recht voraussetzt, dass Staaten selbst keine irreführenden Informationen verbreiten, die die Meinungsbildung beeinträchtigen. Die UN-Sonderberichterstatterin für Meinungsfreiheit verurteilte explizit „staatlich geführte und staatlich geförderte Desinformation und Propaganda“ als Instrumentalisierung von Information zur Schädigung von Zivilisten.

Beim Aufarbeiten des Themas fiel mir Artikel 20 des IPBPR ins Auge, der Kriegspropaganda verbietet: Obwohl diese Bestimmung primär auf die Verhinderung von Kriegshetze abzielt, reflektiert sie ein allgemeines völkerrechtliches Prinzip: Staaten haben nicht nur die Pflicht, private Propaganda zu unterbinden, sondern müssen sich selbst von solcher Propaganda enthalten. Der UN-Menschenrechtsausschuss stellte in seinen Kommentaren klar, dass Staaten die zur Erfüllung dieser Verpflichtungen erforderlichen Maßnahmen ergreifen und selbst von solcher Propaganda absehen sollten.

Das völkergewohnheitsrechtliche Verbot staatlicher Propaganda gegen andere Staaten ist seit der Französischen Revolution anerkannt und wurde in zahlreichen UN-Resolutionen bekräftigt (siehe nur Resolution 110 (II) vom 3. November 1947, Resolution 127 (II) vom 15. November 1947 und Resolution 381 (V) vom 17. November 1950). Und auch wenn diese Resolutionen nun primär zwischenstaatliche Propaganda betreffen, reflektieren sie für mich klar ein allgemeines Prinzip staatlicher Wahrhaftigkeit, das meines Erachtens auch im innerstaatlichen Kontext Bedeutung beanspruchen kann.

Wenn Staaten verpflichtet sind, Propaganda Dritter zu bekämpfen, bedeutet dies auch, dass sie sich selbst nicht an solcher Propaganda durch von ihnen kontrollierte Medien beteiligen dürfen.

Erosion der gemeinsamen Realität

systemische Gefahr

Die technologische Entwicklung generativer KI hat eine Schwelle überschritten, an der die Unterscheidung zwischen authentischer Dokumentation und synthetischer Kreation für durchschnittliche Betrachter nicht mehr ohne Weiteres möglich ist. Diese Entwicklung betrifft nicht nur die individuelle Täuschung, sondern gefährdet die Grundlagen demokratischer Öffentlichkeit. Wenn Bürger nicht mehr darauf vertrauen können, dass visuelle Evidenz die Realität widerspiegelt, erodiert die gemeinsame faktische Basis, auf der politische Debatten geführt werden – und eben dies ist nun einmal die gesunde Basis einer Demokratie.

Dieser Effekt wird dramatisch verstärkt, wenn staatliche Akteure selbst als Manipulatoren auftreten. Denn während private Deepfakes gesellschaftlich geächtet und zunehmend rechtlich sanktioniert werden, genießen Regierungsstellen institutionelles Vertrauen. Die bewusste Ausnutzung dieser Vertrauensstellung durch KI-Manipulation erzeugt einen doppelten Schaden: Einerseits die unmittelbare Täuschung über den konkreten Sachverhalt, andererseits die langfristige Zerstörung des Vertrauens in staatliche Kommunikation überhaupt. Bürger, die erkennen, dass „man Bildern nicht mehr trauen kann“, entwickeln einen generellen Skeptizismus, der in destruktiven Relativismus umschlagen kann – ein Nährboden für Verschwörungstheorien und antidemokratische Ressentiments.

Zugleich entsteht ein Chilling Effect hinsichtlich kritischer Öffentlichkeit und zivilgesellschaftliches Engagements: Wenn jede Festnahme, jede öffentliche Aktion durch staatlich manipulierte Bilder diskreditiert werden kann, steigt das Risiko politischen Engagements erheblich. Aktivisten müssen nicht nur mit rechtlichen Konsequenzen ihres Handelns rechnen, sondern auch damit, dass ihre öffentliche Wahrnehmung durch Fake-Narrative in Form vom KI-Deepfales verzerrt wird, gegen die sie sich kaum wehren können. Diese Abschreckungswirkung trifft den Kern demokratischer Partizipation: die Bereitschaft, für Überzeugungen öffentlich einzustehen.

Struktureller Handlungsbedarf

Die bestehenden Rechtsrahmen weisen erhebliche Lücken bei der Regulierung staatlicher KI-Nutzung auf. Während der EU AI Act umfassende Pflichten und Sanktionen für private Anbieter vorsieht, bleibt die Durchsetzung gegenüber staatlichen – insbesondere drittstaatlichen – Akteuren problematisch. Die Verordnung sieht zwar Geldbußen bis zu 35 Millionen Euro für Verstöße gegen verbotene Praktiken vor, aber die praktische Vollstreckung gegen souveräne Regierungen stößt an völkerrechtliche und faktische Grenzen.

Diese Asymmetrie ist besonders gravierend, weil gerade staatliche Akteure sowohl die Motivation – politische Propaganda – als auch die Ressourcen haben, um Deepfakes systematisch einzusetzen. Die bisherige Regulierung fokussierte auf private Missbräuche wie Fake-Pornografie oder Wahlmanipulation durch Dritte, unterschätzte aber das Risiko staatlicher Informationsmanipulation. Erforderlich ist eine Klarstellung, dass die Transparenzpflichten des AI Act uneingeschränkt für staatliche Kommunikation gelten, verbunden mit der Entwicklung indirekter Durchsetzungsmechanismen: etwa Löschungsanordnungen gegen Plattformen, die nicht gekennzeichnete staatliche Deepfakes verbreiten, oder handelspolitische Konsequenzen bei systematischem Missbrauch.

Auf mitgliedstaatlicher Ebene sollte das Richtigkeitsgebot für staatliche Kommunikation über die Rechtsprechung hinaus kodifiziert und mit Klagerechten für Betroffene verbunden werden. Denkbar wären unabhängige Kontrollinstanzen zur Überwachung staatlicher Informationspraktiken, analog zu Datenschutzbeauftragten. Strafrechtliche Konsequenzen für vorsätzliche Verbreitung manipulierter Inhalte durch Amtsträger könnten erwogen werden, wenn dadurch Persönlichkeitsrechte verletzt werden.

Wichtiger wird aber wohl die Stärkung zivilgesellschaftlicher Gegenmacht sein müssen: Unabhängige forensische Analysekapazitäten zur Deepfake-Detektion müssen ausgebaut, internationale Kooperation von Fact-Checking-Organisationen intensiviert und rechtlicher Schutz für Journalisten gewährleistet werden, die staatliche Bildmanipulationen aufdecken. Ohne Gelder und Sicherheit wird das nicht funktionieren.

Verteidigung gemeinsamer demokratischer Wirklichkeit

Rechtsanwalt Jens Ferner, TOP-Strafverteidiger und IT-Rechts-Experte - Fachanwalt für Strafrecht und Fachanwalt für IT-Recht

Auch wenn die USA zumindest augenscheinlich auf dem Weg in ein faschistisches System sind, so hat mich doch die plumpe und unverhohlene Diskreditierung der eigenen Bevölkerung erschrocken. Ich sehe darin auch eine größere Entwicklung: die schleichende Normalisierung staatlicher Desinformation als Instrument politischer Kommunikation. Was heute noch als Skandal wahrgenommen wird, könnte morgen bereits zum akzeptierten Repertoire staatlicher Öffentlichkeitsarbeit gehören – sofern dem nicht wirksame rechtliche und normative Grenzen gesetzt werden.

Die europäische Rechtsordnung bietet prinzipiell robuste Schutzmechanismen gegen diese Gefahr, die man noch vor Kurzem in „westlichen Sphären” nicht erwartet hätte. So etabliert schon der AI Act Transparenzpflichten und verbietet manipulative Praktiken, die Grundrechtecharta schützt zudem Informationsfreiheit und Verfahrensrechte, das deutsche Grundgesetz normiert Wahrhaftigkeitspflichten und Vertrauensschutz und völkerrechtliche Verträge verpflichten Staaten zur Enthaltsamkeit von Propaganda.

Die Herausforderung besteht darin, die von mir hier herausgearbeiteten Instrumente angesichts einer sich schneller entwickelnden Technologie konsequent durchzusetzen und weiterzuentwickeln. Dabei geht es nicht um eine technikfeindliche Verweigerungshaltung, sondern darum, dass KI-Technologie dem demokratischen Gemeinwohl dient und es nicht untergräbt. Wenn demokratisch-rechtsstaatliche Regierungen bereits jetzt Realität manipulieren, ohne dies offenzulegen, und dies sogar noch als „Meme” feiern, erodiert das Fundament demokratischer Öffentlichkeit – jene gemeinsame Wirklichkeit, auf deren Basis unterschiedliche politische Lager noch miteinander streiten können.

Die Verteidigung dieser gemeinsamen Wirklichkeit gegen staatliche Informationsmanipulation ist eine zentrale Aufgabe, wobei der rechtliche Rahmen zumindest in Europa bereits existiert. Letztlich hängt es vor allem von der Zivilgesellschaft ab, solche Manipulationen aufzudecken, und davon, dass die Menschen kritische Medienkompetenz als demokratische Kernkompetenz begreifen. Die Alternative wäre eine Öffentlichkeit, in der jede Behauptung mit künstlich generierten Fake-Beweisen unterfüttert werden kann, in der Wahrheit zur Verhandlungsmasse degradiert wird – ein postfaktisches Zeitalter im präzisen Wortsinn.

Rechtsanwalt Jens Ferner
Letzte Artikel von Rechtsanwalt Jens Ferner (Alle anzeigen)
Rechtsanwalt Jens Ferner

Von Rechtsanwalt Jens Ferner

Rechtsanwalt Jens Ferner ist renommierter Strafverteidiger im gesamten Strafrecht samt Managerhaftung (mit Schwerpunkt Wirtschaftskriminalität und Cybercrime) sowie Spezialist im IT-Recht mit Schwerpunkt Softwarerecht und digitale Beweismittel. Als Fachanwalt für Strafrecht + IT-Recht verteidigt er Mandanten in anspruchsvollen Strafverfahren, speziell an der Schnittstelle von Strafrecht & IT-Recht und berät in komplexen Softwareprojekten.

Rechtsanwalt Jens Ferner ist Lehrbeauftragter für Wirtschaftsstrafrecht und IT-Compliance (FH Aachen), Softwareentwickler, fortgebildet in Kommunikationspsychologie und publiziert fortlaufend.

Erreichbarkeit: Erstkontakt per Mail oder Rückruf.

Unsere Anwaltskanzlei im Raum Aachen ist hochspezialisiert auf Strafverteidigung, Cybercrime, Wirtschaftsstrafrecht samt Steuerstrafrecht. Zudem sind wir für Unternehmen im Softwarerecht und Cybersicherheitsrecht beratend tätig.