Hybride Kriegsführung 2.0: Russische Desinformation infiltriert Künstliche Intelligenz

Künstliche Intelligenz (KI) ist längst nicht mehr nur ein Werkzeug zur Optimierung von Geschäftsprozessen oder zur Unterstützung wissenschaftlicher Forschung – sie wird zunehmend auch zum Schlachtfeld geopolitischer Einflussnahme. Eine aktuelle Studie zeigt, dass Russland wohl gezielt Desinformation in westliche KI-Systeme einspeist, um deren Antworten zu beeinflussen und propagandistische Inhalte als vermeintlich neutrale Information zu verbreiten. Die Untersuchung offenbart alarmierende Erkenntnisse über eine neue Dimension hybrider Kriegsführung.

Update im Mai 2025: Eine aktuelle Analyse des DFRLab und CheckFirst zur russischen Pravda-Desinformationsinfrastruktur brachtete mehrere neue, über die bisher bekannten Fakten hinausgehende Erkenntnisse, die hier aufgenommen wurden.

Hinweis: Zu dem Thema ist inzwischen auch mein juristischer Fach-Aufsatz “Cyberwar, Hackbacks und Desinformation – Juristische und technische Implikationen unklarer Begriffe” im AnwZert ITR 3/2025 Anm. 2 erschienen.

Wie Russland Künstliche Intelligenz für seine Zwecke manipuliert

Die Studie dokumentiert, dass ein gut finanziertes, in Moskau ansässiges Netzwerk unter dem Namen „Pravda“ systematisch westliche KI-Modelle infiltriert. Ziel ist es nicht, wie klassische Desinformationskampagnen, direkt menschliche Leser zu täuschen, sondern KI-Modelle so zu trainieren, dass sie russische Propagandanarrative unbemerkt weiterverbreiten. Durch die gezielte Manipulation von Webcrawlern und Suchmaschinenergebnissen wird das Trainingsmaterial von KI-Sprachmodellen mit pro-Kreml-Falschinformationen durchsetzt.

Der perfide Mechanismus dahinter: KI-gestützte Chatbots generieren ihre Antworten aus riesigen Mengen öffentlich zugänglicher Daten. Wenn diese Daten durch gezielt gestreute Desinformation durchsetzt sind, wird die KI die falschen Narrative als legitime Informationen wiedergeben. Die Forscher fanden heraus, dass führende generative KI-Modelle in 33 % der Fälle russische Propaganda wiederholten, ohne sie als solche zu kennzeichnen.

Welche KI-Modelle sind betroffen?

Die Untersuchung testete zehn der weltweit führenden KI-Modelle, darunter OpenAIs ChatGPT-4, Googles Gemini, Metas AI, Microsofts Copilot und Anthropic’s Claude. In kontrollierten Tests wurden diesen Modellen 15 bekannte Falschmeldungen aus dem „Pravda“-Netzwerk vorgelegt. Die Ergebnisse sind besorgniserregend: In einem Drittel der Fälle gaben die Modelle die Propagandainhalte ungefiltert wieder, teilweise sogar unter Verweis auf die manipulierten Quellen.

Besonders problematisch ist, dass einige Chatbots sich direkt auf Artikel aus dem Pravda-Netzwerk beriefen. In 56 von 450 getesteten Antworten wurden gezielt Desinformationsquellen zitiert. Damit erreicht Russland eine Art „Narrativwäsche“: Indem Propaganda systematisch über viele verschiedene Websites gestreut wird, erscheinen die Falschinformationen in scheinbar unabhängigen Quellen – ein Mechanismus, der KI-Modelle überlistet, die auf Vielfalt und Häufigkeit von Informationen vertrauen.

Von „LLM-Grooming“ zur systematischen Manipulation

Die Studie beschreibt das gezielte Unterwandern von KI-Trainingsdaten als „LLM-Grooming“ (Large Language Model Grooming). Dabei handelt es sich um eine Technik, mit der feindliche Akteure gezielt Einfluss auf die Trainingsgrundlagen von KI-Systemen nehmen, um deren spätere Ausgaben zu manipulieren.

Der russische Exil-Amerikaner und Kreml-Propagandist John Mark Dougan gab auf einer Moskauer Konferenz offen zu: „Indem wir russische Narrative aus russischer Perspektive verbreiten, können wir tatsächlich die weltweite KI verändern.“ Die Studie belegt, dass dies kein leeres Versprechen war. Allein im Jahr 2024 wurden über 3,6 Millionen Artikel mit Desinformation in das digitale Ökosystem eingespeist, um Suchmaschinen und KI-Modelle zu beeinflussen.

Diese systematische Manipulation geht über die klassischen Fake-News-Kampagnen hinaus. Während frühere Desinformationskampagnen darauf abzielten, Menschen über soziale Medien und Nachrichtenseiten direkt zu beeinflussen, setzt das „Pravda“-Netzwerk an der Infrastruktur der Informationsverarbeitung selbst an – und untergräbt damit die Glaubwürdigkeit von KI-gestützten Informationssystemen.

Welche Folgen hat diese Infiltration?

Die Auswirkungen dieser neuen Strategie sind weitreichend:

  1. Fehlgeleitete Nutzer
    Menschen, die KI-Modelle zur Informationsbeschaffung nutzen, könnten unbewusst auf Kreml-Propaganda hereinfallen, ohne dies zu bemerken. Besonders gefährlich ist dies in politischen oder geopolitischen Debatten, wo KI-generierte Texte zunehmend als „objektive“ Informationsquelle angesehen werden.
  2. Verlust der Informationsintegrität
    Die gezielte Manipulation von KI-Trainingsdaten untergräbt die Neutralität und Glaubwürdigkeit dieser Systeme. Langfristig könnte dies das Vertrauen in generative KI massiv beschädigen.
  3. Demokratische Prozesse in Gefahr
    Wenn KI-Modelle in politischen und gesellschaftlichen Debatten falsche oder verzerrte Informationen liefern, könnten Wähler in Demokratien ungewollt beeinflusst werden. Dies wäre ein direkter Angriff auf die politische Entscheidungsfindung in westlichen Ländern.
  4. Eskalation hybrider Kriegsführung
    Die gezielte Manipulation von KI-Systemen zeigt, dass hybride Kriegsführung eine neue Stufe erreicht hat. Während früher gezielt soziale Medien genutzt wurden, rückt nun die Beeinflussung der digitalen Informationsgrundlagen selbst in den Fokus.

Die Erkenntnisse der Studie zeigen, dass Desinformation nicht mehr nur über soziale Medien verbreitet wird, sondern direkt in die KI-Modelle eindringt, die unsere digitale Realität formen. Dies ist eine besorgniserregende Entwicklung, die nicht nur die Integrität von KI-Technologie gefährdet, sondern auch demokratische Prozesse beeinflussen kann. Als ITrechtler beschäftige ich mich fortlaufend mit dem Thema Desinformation.

Wie kann man sich schützen?

Die Studie macht deutlich, dass KI-Entwickler dringend Maßnahmen ergreifen müssen, um ihre Modelle gegen gezielte Desinformationsangriffe zu schützen. Dazu gehören:

  • Striktere Auswahl der Trainingsdaten: KI-Modelle sollten mit hochwertigen, verifizierten Informationsquellen trainiert werden.
  • Bessere Desinformationsfilter: Algorithmen müssen darauf trainiert werden, Propaganda und Falschinformationen als solche zu erkennen und zu entlarven.
  • Mehr Transparenz in KI-Antworten: Nutzer sollten erkennen können, aus welchen Quellen eine KI ihre Informationen bezieht, um mögliche Manipulationen zu identifizieren.

Die aktuelle Analyse des DFRLab und CheckFirst zur russischen Pravda-Desinformationsinfrastruktur bringt mehrere neue, über die bisher bekannten Fakten hinausgehende Erkenntnisse:


DFR-Enthüllungen zum Pravda-Netzwerk

1. Quantitative Dimension und Echtzeitüberwachung

Zum ersten Mal wurde ein öffentlich zugängliches Dashboard vorgestellt, das fast in Echtzeit über 3,7 Millionen Artikel aus dem Netzwerk auswertet. Diese Daten basieren auf Reverse Engineering der Web-APIs – ein technisch tiefgehender Zugriff, der automatisierte Muster, Quellen und Zielregionen sichtbar macht.

2. Kombination von sanktionierten Staatsmedien und Telegram-Kanälen

Die Studie belegt systematisch, dass das Netzwerk Inhalte von sanktionierten russischen Staatsmedien (z. B. TASS, RT, RIA Novosti) mit Inhalten aus Telegram-Kanälen wie @Vbachir mischt – teilweise in Ländern, in denen staatliche russische Medien blockiert sind. So wird gezielt lokale Zensur umgangen.

3. Geo-spezifische und sprachlich maßgeschneiderte Cluster

Durch die Analyse sogenannter „alternate meta tags“ konnte ein komplexes Clustering nach Sprach- und Regionalgruppen nachgewiesen werden:

  • Francophone: Frankreich + frankophone Länder in Afrika
  • Germanophone: Deutschland, Österreich etc.
  • Balkan: Serbien, Montenegro
  • Osteuropa: Ukraine, Moldau
  • Anglophone Welt: USA, UK, Kanada

Das zeigt: Die Kampagne ist nicht nur groß, sondern auch hochgradig linguistisch segmentiert.

4. Automatisiertes, kontinuierliches Publikationsmuster

Die Artikelproduktion läuft rund um die Uhr, mit messbaren Peaks zu geopolitischen Ereignissen (z. B. EU-Wahlen, Sicherheitskonferenzen, Verhaftung von Telegram-CEO Durov). Das spricht für einen stark KI-gestützten, automatisierten Prozess der Desinformationsverbreitung.

5. Verdeckte Dominanz einzelner Kanäle

Ein besonders einflussreicher Knotenpunkt ist der Telegram-Kanal @Vbachir, der über 53.000-mal zitiert wurde. Obwohl dieser offiziell nicht im Besitz staatlicher Organe ist, bestehen Hinweise auf eine Nähe zu russischen Sondereinheiten und bekannten Desinformationsakteuren. Bemerkenswert: TGStat-Verlinkungen lassen Rückschlüsse auf koordinierte Netze mit „95“-Suffix-Kanälen zu, vermutlich pseudonyme Tarnidentitäten.

Der Kampf um die Wahrheit hat eine neue Front erreicht

Russland hat mit dem „Pravda“-Netzwerk eine neue Waffe im Informationskrieg geschaffen. Die gezielte Manipulation von KI-Trainingsdaten könnte langfristig dazu führen, dass sich Falschinformationen unbemerkt in den öffentlichen Diskurs einschleichen. Entwickler, Regierungen und Nutzer sind gleichermaßen gefordert, um dieser Bedrohung mit wirksamen Gegenmaßnahmen zu begegnen. Die DFR-Analyse zeigt zudem erstmals mit datenbasierter Präzision, wie die Pravda-Infrastruktur:

  • systematisch sanktionierte Quellen umgeht,
  • durch automatisiertes linguistisches Clustering lokal wirksame Desinformation verbreitet,
  • eine transnationale Telegram-Koordination etabliert hat,
  • und ihre Aktivitäten zeitlich synchronisiert mit geopolitischen Ereignissen eskaliert.

Das dort vorhandene Dashboard macht diese Dynamik visuell und öffentlich nachvollziehbar – und ist damit ein bedeutender Fortschritt in der OSINT-basierten Analyse russischer Informationsoperationen. Insgesamt muss eines klar sein: Der Informationskrieg der Zukunft wird nicht mehr nur auf sozialen Medien oder Nachrichtenseiten ausgefochten – er findet in den Algorithmen und Trainingsdaten der Künstlichen Intelligenz statt. Und wird seit Jahren bereits vorbereitet.

Fachanwalt für Strafrecht & IT-Recht bei Anwaltskanzlei Ferner Alsdorf
Rechtsanwalt Jens Ferner ist ein renommierter Strafverteidiger im gesamten Strafrecht samt Managerhaftung (insbesondere bei Wirtschaftskriminalität wie Geldwäsche, Betrug, Untreue bis zu Cybercrime – aber auch im Jugendstrafrecht und Sexualstrafrecht) sowie Spezialist im IT-Recht (Softwarerecht und KI, IT-Vertragsrecht und Compliance). Als Fachanwalt für Strafrecht + IT-Recht verteidigt er Mandanten in anspruchsvollen Strafverfahren und berät in komplexen Softwareprojekten. Er ist Lehrbeauftragter für Wirtschaftsstrafrecht und IT-Compliance (FH Aachen) und publiziert fortlaufend.

Erreichbarkeit:Per Mail, Rückruf, Threema oder Whatsapp.

Unsere Anwaltskanzlei im Raum Aachen ist spezialisiert auf Strafverteidigung, Cybercrime, Wirtschaftsstrafrecht samt Steuerstrafrecht sowie IT-Recht; außerdem im Arbeitsrecht mit Schwerpunkt Managerhaftung. Von Verbrauchern werden allein Strafverteidigungen und Fälle im Arbeitsrecht übernommen.
Rechtsanwalt Jens Ferner
Rechtsanwalt Jens Ferner

Von Rechtsanwalt Jens Ferner

Rechtsanwalt Jens Ferner ist ein renommierter Strafverteidiger im gesamten Strafrecht samt Managerhaftung (insbesondere bei Wirtschaftskriminalität wie Geldwäsche, Betrug, Untreue bis zu Cybercrime – aber auch im Jugendstrafrecht und Sexualstrafrecht) sowie Spezialist im IT-Recht (Softwarerecht und KI, IT-Vertragsrecht und Compliance). Als Fachanwalt für Strafrecht + IT-Recht verteidigt er Mandanten in anspruchsvollen Strafverfahren und berät in komplexen Softwareprojekten. Er ist Lehrbeauftragter für Wirtschaftsstrafrecht und IT-Compliance (FH Aachen) und publiziert fortlaufend.

Erreichbarkeit:Per Mail, Rückruf, Threema oder Whatsapp.

Unsere Anwaltskanzlei im Raum Aachen ist spezialisiert auf Strafverteidigung, Cybercrime, Wirtschaftsstrafrecht samt Steuerstrafrecht sowie IT-Recht; außerdem im Arbeitsrecht mit Schwerpunkt Managerhaftung. Von Verbrauchern werden allein Strafverteidigungen und Fälle im Arbeitsrecht übernommen.