In den letzten Jahren hat die künstliche Intelligenz (KI) enorme Fortschritte gemacht und sich zu einem mächtigen Werkzeug entwickelt, das sowohl positive als auch negative Auswirkungen auf demokratische Prozesse haben kann. Während KI das Potenzial hat, die Demokratie zu stärken und die politische Beteiligung zu fördern, birgt sie auch erhebliche Risiken, insbesondere im Kontext von Wahlen.
Beeinflussung von Wahlen durch KI – keine Science-Fiction
Die Nutzung von künstlicher Intelligenz (KI) hat in den letzten Jahren in Wahlkampagnen weltweit erheblich zugenommen. Dabei kommen vor allem Deepfakes und Stimmklonung zum Einsatz, um Kandidaten zu fördern, politische Gegner zu attackieren oder im Interesse ausländischer Akteure spezifische Kandidaten zu diffamieren. Solche manipulativen Inhalte werden oft kurz vor Wahltagen verbreitet, um die Reaktionsmöglichkeiten von Faktenprüfern zu begrenzen.
Besonders problematisch ist die Anwendung von Audio-Deepfakes, da diese schwerer zu erkennen sind und die Nutzer täuschen können. Die schnelle Verbreitung dieser Technologien und die unzureichende Regulierung in vielen Ländern stellen eine ernsthafte Bedrohung für die Integrität von Wahlprozessen dar. Infolgedessen sind umfassende Maßnahmen zur Erkennung und Bekämpfung solcher Desinformation notwendig, um das Vertrauen in demokratische Institutionen zu wahren.
Chancen der KI in Wahlen
Durch den Einsatz von KI können politische Diskussionen verbessert und eine breitere politische Beteiligung gefördert werden: KI kann dazu beitragen, die Wählerbeteiligung zu erhöhen, indem sie Wähler über Wahlprozesse informiert und ihnen hilft, fundierte Entscheidungen zu treffen. Zudem kann sie große Datenmengen analysieren, um Trends und potenzielle Unregelmäßigkeiten zu identifizieren, was den Wahlbehörden ermöglicht, datengestützte Entscheidungen zu treffen und die Integrität des Wahlprozesses zu gewährleisten. Ebenso kann KI die Cybersicherheit stärken, indem sie Bedrohungen frühzeitig erkennt und darauf reagiert, sowie sensible Wahldaten schützt:
- Erhöhte Wählerbeteiligung und Engagement: KI-gestützte Chatbots und virtuelle Assistenten können Wähler über Wahlprozesse informieren, Fragen beantworten und sogar bei der Entscheidungsfindung helfen. Dies kann die Wählerbeteiligung steigern und sicherstellen, dass die Bürger gut informiert sind.
- Datenanalyse und Entscheidungsfindung: KI-Algorithmen können große Datenmengen analysieren, um Wählertrends zu identifizieren und potenzielle Unregelmäßigkeiten aufzudecken. Dies hilft Wahlbehörden, datenbasierte Entscheidungen zu treffen und die Integrität des Wahlprozesses zu gewährleisten.
- Sicherheit und Cyberschutz: KI kann genutzt werden, um Cybersicherheitsmaßnahmen zu verstärken, Bedrohungen zu erkennen und darauf zu reagieren sowie sensible Wahldaten zu schützen. Dies ist besonders wichtig, um Manipulationen und Cyberangriffe auf Wahlinfrastrukturen zu verhindern.
- Förderung des politischen Diskurses: KI kann den politischen Diskurs verbessern, indem sie massive politische Gespräche in Chatrooms verwaltet, Meinungen der Teilnehmer zusammenfasst, Spannungen identifiziert und diese moderiert.
Risiken der KI in Wahlen
Der Einsatz von KI in demokratischen Wahlen birgt auch erhebliche Risiken. KI kann zur Verbreitung von Desinformation und Manipulation durch Deepfakes und gefälschte Audiodateien genutzt werden, was das Vertrauen in den Wahlprozess untergräbt. Zudem ermöglicht sie präzises Mikro-Targeting, das Wählergruppen gezielt manipulieren kann, und erhöht die Gefahr von Cyberangriffen auf Wahlinfrastrukturen. Diese Risiken erfordern umfassende Schutzmaßnahmen, um die Integrität der Wahlen zu gewährleisten:
- Desinformation und Manipulation: KI kann zur Verbreitung von Fehlinformationen und Desinformation verwendet werden. Beispielsweise können Deepfake-Videos erstellt werden, die täuschend echt wirken und falsche Informationen verbreiten. Solche Inhalte können das Vertrauen in die Informationen untergraben und den Wahlprozess destabilisieren.
- Mikro-Targeting und Polarisierung: Durch die Analyse von sozialen Netzwerken kann KI spezifische Wählergruppen sehr präzise ansprechen. Dies kann zur Manipulation von Wählergruppen führen, indem sie gezielt mit Informationen versorgt werden, die ihre bestehenden Ansichten bestätigen und verstärken, was zu einer weiteren Polarisierung der Gesellschaft führt.
- Automatisierte Manipulationen: KI kann genutzt werden, um Astroturfing-Kampagnen durchzuführen, bei denen eine kleine Gruppe eine falsche Graswurzelbewegung simuliert, um die öffentliche Meinung zu beeinflussen. Dies kann dazu führen, dass Politiker falsche Ansichten über die öffentliche Meinung erhalten und dementsprechend handeln.
- Sicherheitslücken und Cyberangriffe: KI-Systeme selbst können anfällig für Cyberangriffe sein, was zu Manipulationen von Wahlergebnissen oder Datenlecks führen kann. Adversarielle Angriffe, bei denen die Trainingsdaten von KI-Systemen manipuliert werden, sind ein weiteres Risiko, das die Integrität des Wahlprozesses gefährden kann.
IT-Sicherheitsrecht & Sicherheitsvorfall
Wir bieten juristische Beratung bei einem Sicherheitsvorfall sowie im IT-Sicherheitsrecht: rund um Verträge, Haftung und Compliance wird Hilfe in der Cybersecurity von jemandem geboten, der es kann – IT-Fachanwalt und Strafverteidiger Jens Ferner bringt sein Fachwissen mit dem Hintergrund des Softwareentwicklers und Verteidigers von Hackern in Unternehmen ein!
Maßnahmen zur Risikominderung
Was kann man tun, um diese Risiken zu erkennen oder einzudämmen:
- Erkennung von KI-generierten Inhalten: Um die Verbreitung von KI-generierten Fehlinformationen zu verhindern, können automatisierte Erkennungstools wie GPTZero, OpenAI’s Classifier und DetectGPT eingesetzt werden. Diese Werkzeuge sind jedoch nicht vollständig zuverlässig und können umgangen werden.
- Wasserzeichen und Metadaten-Kennzeichnung: Eine weitere Technik zur Kennzeichnung von KI-generierten Inhalten ist das Einfügen von Wasserzeichen oder die Markierung von Metadaten. Beispielsweise kann Google unter KI-generierten Bildern einen Hinweis anbringen, dass der Inhalt von einer KI erstellt wurde.
- Gesetzliche Rahmenbedingungen: Die EU passt derzeit ihren rechtlichen Rahmen an, um den Gefahren durch KI zu begegnen und die Nutzung vertrauenswürdiger, transparenter und verantwortungsvoller KI-Systeme zu fördern. Dazu gehören der Digital Services Act und der vorgeschlagene AI Act, der spezifische regulatorische Anforderungen an Hochrisiko-KI-Systeme stellt.
Hauptangriffsziele auf Wahlen durch KI-generierte Inhalte
KI-generierte Bilder
KI-generierte Bilder wurden bereits in verschiedenen (EU-)Ländern verbreitet, um Desinformation zu fördern. Beispiele umfassen manipulierte Bilder von Protesten, falsche Darstellungen von Politikern und emotional aufgeladene Bilder, die negative Reaktionen hervorrufen sollen. Diese Bilder sind derzeit noch oft durch unrealistische Details erkennbar, was Experten und Nutzern hilft, sie zu entlarven. Obwohl die Qualität der Bilder aktuell noch relativ leicht zu erkennen ist, dürfte sich dies in naher Zukunft ändern, wenn die Technologie weiter fortschreitet
KI-generiertes Audio
KI-generiertes Audio wird im Allgemeinen als die wohl derzeit größte Bedrohung angesehen, da es sehr schwierig ist, diese Inhalte als künstlich zu erkennen. Beispiele umfassen gefälschte Telefongespräche zwischen Politikern, die die Wahlmanipulation besprechen, oder gefälschte Botschaften von prominenten Persönlichkeiten. Diese Audios können weitverbreitet werden und sind oft schwer zu entlarven, insbesondere für durchschnittliche Nutzer. Die Fähigkeit, diese Audios zu erzeugen und zu verbreiten, kann genutzt werden, um Politiker zu diskreditieren, Verschwörungstheorien zu fördern und die demokratische Beteiligung zu untergraben
KI-generierte Videos
Die Technologie zur Erstellung von KI-generierten Videos entwickelt sich schnell, wobei die fortschrittlichsten Tools derzeit bislang nicht öffentlich verfügbar sind. Bisher sind die meisten KI-generierten Videos nicht realistisch genug, um als echte Videos durchzugehen. Es wird jedoch erwartet, dass KI-generierte Videos, bei denen der Audioinhalt verändert und das Video nur geringfügig angepasst wird (z.B. Lippenbewegungen und Gesichtsausdrücke synchronisiert), eine größere Bedrohung darstellen. Solche Videos können genutzt werden, um falsche Informationen zu verbreiten und das Vertrauen in den demokratischen Prozess zu untergraben
EU-Regelungen zum Schutz vor Desinformation
Die Europäische Union hat ihren rechtlichen Rahmen erweitert, um den Gefahren, die von künstlicher Intelligenz (KI) ausgehen, besser begegnen zu können und die Nutzung vertrauenswürdiger, transparenter und verantwortungsvoller KI-Systeme zu fördern. Die im Folgenden dargestellten gesetzlichen Maßnahmen verdeutlichen, dass die EU die Notwendigkeit erkannt hat, den Einsatz von KI im Kontext von Wahlen sorgfältig zu regulieren und gleichzeitig ihre positiven Potenziale zu nutzen. Sie sollen sicherstellen, dass sowohl Transparenz als auch Verantwortung in der Nutzung von KI-Systemen gewährleistet sind, um die demokratischen Prozesse zu schützen und zu stärken.
Eine Schlüsselinitiative in diesem Zusammenhang ist der Digital Services Act (DSA), der im November 2022 in Kraft trat. Dieser Gesetzesakt verlangt von sehr großen Online-Plattformen, einen risikobasierten Ansatz zu verfolgen und unabhängige Prüfungen ihrer Risikomanagementsysteme durchzuführen, um den Missbrauch ihrer Systeme, wie beispielsweise durch Desinformation, zu verhindern. Zudem müssen diese Plattformen Maßnahmen ergreifen, um die identifizierten Risiken zu mindern, einschließlich der Moderation der auf ihren Plattformen angezeigten Inhalte. Der DSA zielt auch darauf ab, die Transparenz in Bezug auf politische Werbung zu erhöhen, indem er sowohl die Zielgruppenansprache an Minderjährige als auch die Nutzung sensibler persönlicher Daten für gezielte Werbung verbietet.
Die EU-Kommission hat die ersten DSA-Richtlinien für Wahlen veröffentlicht. Diese Richtlinien zielen darauf ab, klare Erwartungen an große Online-Plattformen und Suchmaschinen zu formulieren, um ihre Pflichten in konkrete Maßnahmen umzusetzen und damit die demokratischen Prozesse zu schützen.
Ein weiterer wichtiger Bestandteil des rechtlichen Rahmens der EU ist der Code of Practice on Disinformation. Diese Selbstverpflichtung der Industrie, zu der auch große Online-Plattformen gehören, wurde 2018 ins Leben gerufen und 2022 überarbeitet. Der Code zielt darauf ab, die Transparenz politischer Werbung zu stärken und die Nutzer zu befähigen, Desinformation zu erkennen und zu melden. Er fordert die Einführung stärkerer Transparenzmaßnahmen für politische Werbung, einschließlich effizienterer Kennzeichnung und der Bereitstellung von Informationen über die Sponsoren und die Ausgaben für Werbung.
Ferner wird der nunmehr beschlossene AI Act eine zentrale Rolle dabei spielen, die Risiken durch die Nutzung von KI zu regulieren. Diese Verordnung verfolgt einen risikobasierten Ansatz und legt spezifische regulatorische Anforderungen an Hochrisiko-KI-Systeme fest. In der Position des Europäischen Parlaments zum vorgeschlagenen AI Act wurden AI-Systeme, die zur Beeinflussung von Wählern in politischen Kampagnen verwendet werden, als Hochrisiko-KI-Systeme eingestuft. Zudem müssen Anbieter von generativen KI-Modellen sicherstellen, dass ihre Systeme robust gegen die Erzeugung illegaler Inhalte sind und deutlich machen, wenn Inhalte von einer KI generiert wurden und nicht von Menschen stammen.
Gesamteindruck zur Wahlbeeinflussung durch KI
KI hat das Potenzial, den demokratischen Prozess erheblich zu verbessern, aber auch zu gefährden. Es ist entscheidend, dass geeignete Schutzmaßnahmen und Regeln zur Transparenz implementiert werden, um die Vorteile der KI zu maximieren und ihre Risiken zu minimieren. Nur so kann sichergestellt werden, dass Wahlen fair und sicher ablaufen und das Vertrauen der Bürger in die Demokratie gestärkt wird. Wie wichtig dies ist, zeigt eine aktuelle Mitteilung von OPENAI:
OpenAI hat nach eigener Mitteilung in den letzten drei Monaten fünf verdeckte Einflussoperationen (IO) aufgedeckt und gestoppt, die versucht haben, ihre Modelle für täuschende Aktivitäten im Internet zu nutzen. Diese Operationen umfassten:
- Bad Grammar: Eine bisher nicht gemeldete russische Operation auf Telegram, die sich gegen die Ukraine, Moldawien, die baltischen Staaten und die USA richtete. Die Akteure nutzten die Modelle zur Fehlerbehebung von Code für Telegram-Bots und zur Erstellung politischer Kommentare.
- Doppelganger: Eine russische Operation, die Kommentare in verschiedenen Sprachen (u.a. Englisch, Französisch, Deutsch) generierte und diese auf Plattformen wie X und 9GAG veröffentlichte. Sie übersetzten und bearbeiteten auch Artikel, die auf zugehörigen Websites veröffentlicht wurden.
- Spamouflage: Ein chinesisches Netzwerk, das öffentliche Social-Media-Aktivitäten recherchierte und Texte in mehreren Sprachen generierte, die auf Plattformen wie X, Medium und Blogspot veröffentlicht wurden. Zudem debuggen sie Code für Datenbank- und Website-Management.
- International Union of Virtual Media (IUVM): Eine iranische Operation, die lange Artikel, Schlagzeilen und Website-Tags generierte und auf einer zugehörigen Website veröffentlichte.
- Zero Zeno: Eine Operation eines israelischen Unternehmens, die Kommentare und Artikel generierte und diese auf verschiedenen Plattformen wie Instagram und Facebook veröffentlichte.
Die enthüllten Kampagnen zielten auf Themen wie den russischen Einmarsch in die Ukraine, den Konflikt in Gaza, die indischen Wahlen, die Politik in Europa und den USA sowie Kritik an der chinesischen Regierung ab. Trotz ihrer Bemühungen erzielten diese Operationen keine bedeutende Reichweite oder authentisches Engagement durch die Nutzung der OpenAI-Dienste.
Maßnahmen der EU
Die Notwendigkeit einer koordinieren und umfassenden Antwort der EU auf hybride Bedrohungen, insbesondere im Bereich der Desinformation bei Wahlen liegt auf der Hand. Die EU hat daher eine Vielzahl von Instrumenten entwickelt, um diese Bedrohungen frühzeitig zu erkennen und darauf zu reagieren.
Durch die Einführung von Hybrid Rapid Response Teams und die kontinuierliche Verbesserung der EU Hybrid Toolbox zeigt die EU ihre Entschlossenheit, die Integrität demokratischer Prozesse zu schützen und die Resilienz gegen Desinformation zu stärken. Die Zusammenarbeit mit internationalen Partnern und die Nutzung neuer Technologien sind dabei zentrale Elemente der EU-Strategie.
EU Hybrid Toolbox
Bereits im Jahr 2022 stellte der Rat der Europäischen Union einen Rahmen für eine koordinierte EU-Antwort auf hybride Kampagnen vor. Dieser Rahmen, der als „EU Hybrid Toolbox“ bezeichnet wird, zielt darauf ab, hybride Bedrohungen frühzeitig zu erkennen und mit einer Vielzahl von Instrumenten zu reagieren. Dazu gehören präventive, kooperative, stabilitätsfördernde und einschränkende Maßnahmen. Die Toolbox umfasst auch den „Foreign Information Manipulation and Interference Toolbox“ (FIMI), der speziell auf die Erkennung, Analyse und Reaktion auf Desinformation abzielt.
Der Fokus liegt darauf, die Resilienz der EU und ihrer Mitgliedstaaten zu erhöhen, indem hybride Bedrohungen durch einen ganzheitlichen Ansatz bekämpft werden. Dies beinhaltet die Verbesserung der Cybersicherheit durch die NIS-2-Richtlinie und die Richtlinie zur Resilienz kritischer Einrichtungen, sowie die Umsetzung der Verordnung über Transparenz und gezielte politische Werbung, des Digital Services Act (DSA) und des Anti-Coercion Instruments (ACI). Darüber hinaus wird die Zusammenarbeit mit internationalen Partnern, wie der NATO, betont, um hybride Bedrohungen effektiv zu bekämpfen.
Hybrid Rapid Response Teams
Im Jahr 2024 wurden diese Maßnahmen durch die Einführung der Hybrid Rapid Response Teams weiter ausgebaut. Diese Teams sind ein zentrales Element der EU Hybrid Toolbox und sollen Mitgliedstaaten und Partnerländer dabei unterstützen, hybride Bedrohungen abzuwehren. Die Rapid Response Teams bieten maßgeschneiderte und gezielte kurzfristige Unterstützung, insbesondere bei der Bekämpfung von Desinformationskampagnen und Cyberangriffen.
Die strategische Ausrichtung der EU zur Bekämpfung hybrider Bedrohungen wurde im „Strategic Compass“ festgelegt, der die Entwicklung neuer Instrumente und die Stärkung bestehender Maßnahmen vorsieht. Dies umfasst die systematische Sammlung und Analyse von Daten zu Desinformationsvorfällen sowie die Förderung der internationalen Zusammenarbeit zur Schaffung von Normen zur Abwehr hybrider Bedrohungen.
Ziehen Sie eine Nummer: Wer steht an, um Wahlen zu beeinflussen?
Zu den bedeutsamsten internationalen Akteuren, die versuchen, Wahlen in Europa zu beeinflussen, gehören vor allem staatliche Akteure aus Russland, China und Iran. Diese Länder setzen verschiedene Taktiken ein, um ihre geopolitischen Interessen zu fördern und die Stabilität der europäischen Demokratien zu untergraben.
Neben den im Folgenden benannten Hauptakteuren gibt es auch andere Länder und nichtstaatliche Akteure, die versuchen, Wahlen in Europa zu beeinflussen. Dazu gehören beispielsweise Gruppen, die im Auftrag von Regierungen oder aus eigenem Interesse handeln, um bestimmte politische Agenden voranzutreiben. Diese Akteure nutzen eine Vielzahl von Methoden, darunter Cyberangriffe, Desinformation, wirtschaftlichen Druck und diplomatische Manöver, um ihre Ziele zu erreichen. Die Europäische Union und ihre Mitgliedstaaten stehen vor der Herausforderung, diese Bedrohungen zu erkennen und abzuwehren, um die Integrität ihrer demokratischen Prozesse zu schützen.
Russland
Russland ist bekannt für seine umfangreichen Desinformationskampagnen und Cyberangriffe, die darauf abzielen, das Vertrauen in demokratische Prozesse zu schwächen. Zu den bekanntesten Beispielen gehört die Beeinflussung der US-Wahlen 2016 sowie die Versuche, die Brexit-Abstimmung zu beeinflussen. Russische Akteure nutzen häufig Social-Media-Plattformen, um falsche Informationen zu verbreiten und gesellschaftliche Spaltungen zu vertiefen.
China
China setzt zunehmend auf Cyberangriffe und Desinformationskampagnen, um seinen Einfluss in Europa auszubauen. Chinesische Hackergruppen sind dafür bekannt, Wirtschaftsspionage zu betreiben und sensible Informationen zu stehlen, die dann genutzt werden können, um politische Entscheidungen zu beeinflussen. Zudem versucht China, durch die Verbreitung von pro-chinesischen Narrativen in den Medien die öffentliche Meinung in Europa zu manipulieren.
Iran
Iranische Akteure nutzen ebenfalls Desinformationskampagnen und Cyberangriffe, um ihre geopolitischen Ziele zu verfolgen. Diese Kampagnen zielen oft darauf ab, die Politik der USA und ihrer Verbündeten in Europa zu destabilisieren. Iranische Hackergruppen greifen dabei auf ähnliche Techniken zurück wie ihre russischen und chinesischen Gegenstücke.
Nordkorea
Nordkorea ist ein weiterer internationaler Akteur, der versucht, durch Cyberaktivitäten Einfluss auf Wahlen und politische Prozesse weltweit zu nehmen, einschließlich in Europa. Während Nordkorea im Vergleich zu Russland, China und Iran weniger im Fokus steht, gibt es dennoch bedeutende Aktivitäten, die von nordkoreanischen Akteuren ausgehen. Nordkorea nutzt auch Desinformation, um seine geopolitischen Ziele zu fördern und politische Unruhen zu schüren. Während es weniger dokumentierte Fälle von direkter Wahlbeeinflussung durch Nordkorea gibt, nutzt das Regime dennoch Cyberoperationen, um politischen Druck auszuüben und seine Interessen zu wahren, etwa durch Veröffentlichung von kompromittierenden Informationen über politische Kandidaten oder die Verbreitung von Propaganda.
Code of Practice on Disinformation
Der Code of Practice on Disinformation wurde von großen Online-Plattformen wie Google, Meta, Microsoft und TikTok unterzeichnet. Ziel ist es, Desinformation insbesondere im Hinblick auf die kommenden Europawahlen im Juni zu bekämpfen. Zu den bereits umgesetzten oder geplanten Maßnahmen gehören:
- Kennzeichnung digital erstellter oder veränderter Inhalte: Anzeigen und Inhalte, die digital bearbeitet wurden, müssen klar gekennzeichnet sein.
- Zusammenarbeit mit Faktenprüfungsorganisationen: Plattformen arbeiten mit unabhängigen Faktenprüfern zusammen, um die Verbreitung von Desinformation zu reduzieren.
- Förderung qualitativ hochwertiger Informationen: Autoritative und vertrauenswürdige Informationen werden verstärkt an die Nutzer weitergegeben.
- Medienkompetenz und Präventionskampagnen: Es werden zielgerichtete Kampagnen zur Medienkompetenz und Präventionsarbeit durchgeführt, um das Bewusstsein für Desinformation zu schärfen.
Ausblick
- Die Berichte sind im Transparenzzentrum (https://disinfocode.eu/) einsehbar.
- Die EU-Kommission plant die Anerkennung des Codes of Practice als Verhaltenskodex unter dem Digital Services Act.
- Zukünftige Berichte werden erwartet, um die kontinuierlichen Bemühungen zur Sicherung der Wahlen zu dokumentieren und zu verbessern.
Technische Sicherheit der EU-Wahlen
Die EU hat verschiedene Maßnahmen ergriffen, um die Wahlen technisch sicherer zu machen und die Resilienz gegenüber Cyberbedrohungen zu stärken. Diese Maßnahmen umfassen sowohl präventive als auch reaktive Strategien, die in einem aktualisierten Kompendium zur Cybersicherheit und Resilienz von Wahlen detailliert beschrieben sind.
Bedrohungslandschaft und Cybersicherheit
Die Bedrohungslandschaft hat sich seit den letzten EU-Wahlen 2019 verschärft. Zu den aktuellen Bedrohungen gehören:
- Ransomware und Wiperware-Angriffe: Diese können Wahlsysteme lahmlegen, indem sie wichtige Daten verschlüsseln oder löschen.
- DDoS-Angriffe: Diese Angriffe können die Übertragung und Anzeige von Wahlergebnissen stören und das Vertrauen der Öffentlichkeit in den Wahlprozess untergraben.
- Phishing und Social Engineering: Diese Methoden ermöglichen den Zugang zu sensiblen Informationen, die für Desinformationskampagnen verwendet werden können.
- Lieferkettenangriffe: Diese betreffen die gesamte Wahlinfrastruktur, indem sie über vertrauenswürdige Drittanbieter Angriffe durchführen.
- Manipulierte Informationen: Cyberangriffe können dazu genutzt werden, gefälschte Informationen zu verbreiten und das Vertrauen in den Wahlprozess zu erschüttern
Technologische Fortschritte und Maßnahmen
Die Wahlprozesse haben technologische Fortschritte gemacht, was auch neue Sicherheitsmaßnahmen erfordert. Dazu gehören:
- Informationsaustausch und Zusammenarbeit: Die Einrichtung nationaler Wahlnetzwerke, die alle relevanten Akteure umfassen, um Bedrohungen frühzeitig zu erkennen und zu bekämpfen.
- Sensibilisierung und Schulung: Kampagnen zur Sensibilisierung für Cyberbedrohungen und Schulungen für alle Beteiligten, einschließlich Wahlbeamter, IT-Mitarbeiter und Kandidaten.
- Risikomanagement und Krisenbewältigung: Durchführung von Risikoanalysen und Erstellung von Krisenmanagementplänen, die auch die Vorbereitung auf groß angelegte Vorfälle umfassen.
- Übungen und Training: Durchführung von Szenario-basierten Übungen und technischen Trainings, um die Reaktionsfähigkeit auf Cybervorfälle zu testen und zu verbessern
Spezifische Maßnahmen für EU-Wahlen
Die Wahlen zum Europäischen Parlament erfordern besondere Sicherheitsvorkehrungen aufgrund ihrer grenzüberschreitenden Natur. Dazu gehören:
- Sicherstellung der Vertraulichkeit und Integrität von Wahldaten: Implementierung von Sicherheitskonzepten für die sichere Übertragung vorläufiger Wahlergebnisse.
- Erweiterte Zusammenarbeit und Informationsaustausch: Nutzung von Netzwerken wie dem European Cooperation Network on Elections (ECNE) und dem EU Cyber Crisis Liaison Organisation Network (EU-CyCLONe) zur Koordination und Bewältigung von Cybervorfällen.
- Anwendung neuer Technologien: Verwendung von KI zur Verbesserung der Sicherheit und zur Erkennung von Cyberbedrohungen sowie zur Unterstützung der Wählerinteraktion.
- Cybercrime in Asien - 11. September 2024
- Russische Militärische Cyber-Akteure nehmen US- und globale kritische Infrastrukturen ins Visier - 11. September 2024
- Ransomware Risk Report 2024 von Semperis - 11. September 2024