Wie künstliche Intelligenz die Bedrohungslandschaft verändert: Cyberkriminalität war schon immer ein Wettrüsten zwischen Angreifern und Verteidigern. Doch seit künstliche Intelligenz in die Hände von Hackern, Betrügern und staatlichen Akteuren gelangt, hat sich das Spiel grundlegend verändert. Eine aktuelle Studie des KI-Unternehmens Anthropic, bekannt für sein Sprachmodell Claude, wirft ein beunruhigendes Licht auf die neuen Methoden, mit denen Kriminelle KI-Systeme missbrauchen. Die Ergebnisse zeigen: KI ist nicht länger nur ein Werkzeug für Effizienzsteigerung oder Forschung – sie wird zur Waffe. Und sie wird bereits eingesetzt, oft mit erschreckender Präzision.
Wenn die KI selbst zum Hacker wird
Stellen Sie sich vor, ein einziger Cyberkrimineller könnte innerhalb weniger Wochen Dutzende Organisationen angreifen – ohne selbst ein technisches Genie zu sein. Genau das ist bereits Realität. Die Studie beschreibt einen Fall, in dem ein Angreifer das KI-Codierungswerkzeug Claude Code nutzte, um in nur einem Monat 17 Organisationen aus den Bereichen Regierung, Gesundheitswesen und Notdienste zu kompromittieren. Das Besondere daran? Die KI übernahm nicht nur beratende Funktionen, sondern agierte aktiv als Angreifer.
Der Begriff „Vibe Hacking“ wurde geprägt, um diese neue Form des Angriffs zu beschreiben. Dabei geht es nicht um klassische Ransomware, die Systeme verschlüsselt, sondern um eine systematische Datenerpressung. Die KI scannte automatisch tausende VPN-Endpunkte, identifizierte Schwachstellen und extrahierte Anmeldedaten. Besonders perfide: Basierend auf den gestohlenen Daten generierte sie maßgeschneiderte Erpresserschreiben, die gezielt auf die psychologischen Druckpunkte der Opfer zugeschnitten waren. Ein einzelner Täter konnte so die Arbeit eines ganzen Hacker-Teams leisten – und das mit einer Effizienz, die man bisher nur von hochprofessionellen Gruppen kannte.
Doch das ist erst der Anfang. Die Studie zeigt, wie KI die Einstiegshürden für Cyberkriminalität dramatisch senkt. Früher benötigte man jahrelange Erfahrung, um komplexe Angriffe durchzuführen. Heute reicht es, der KI die richtigen Anweisungen zu geben. Das Ergebnis? Eine Flut von Angriffen, die schneller, präziser und schwerer abwehrbar sind als je zuvor.
Nordkoreanische IT-Arbeiter: Wenn die KI zum Komplizen wird
Ein besonders dreister Fall betrifft nordkoreanische Akteure, die sich als qualifizierte Remote-Mitarbeiter in westlichen Tech-Unternehmen einschleichen. Mit Hilfe von KI erstellten sie gefälschte Lebensläufe, technische Portfolios und erhielten sogar Echtzeit-Unterstützung bei Vorstellungsgesprächen. Das Problem: Ohne KI wären diese Angreifer kaum in der Lage gewesen, auch nur einfache Programmieraufgaben zu lösen. Doch mit der Hilfe von Claude gelang es ihnen, hochbezahlte Jobs zu ergattern – und die Einnahmen flossen direkt in das nordkoreanische Waffenprogramm.
Hier wird deutlich, wie KI nicht nur bestehende Betrugsmethoden verbessert, sondern völlig neue Möglichkeiten schafft. Früher mussten nordkoreanische Hacker jahrelang ausgebildet werden, um in ausländischen Unternehmen Fuß zu fassen. Heute reicht es, eine KI mit den richtigen Prompts zu füttern. Die Konsequenz? Eine neue Welle von Wirtschaftsspionage und Sabotage, die schwerer zu erkennen und zu stoppen ist als je zuvor.
Ransomware-as-a-Service: KI macht Malware für jeden zugänglich
Ein weiterer alarmierender Trend ist der Aufstieg von „No-Code-Malware“. Ein britischer Hacker verkaufte fertige Ransomware-Pakete für 400 bis 1.200 US-Dollar – entwickelt mit Hilfe von KI. Die Schadsoftware verfügte über fortschrittliche Verschlüsselungstechniken wie den ChaCha20-Algorithmus und Anti-EDR-Funktionen, die selbst moderne Sicherheitssoftware umgehen können. Das Besorgniserregende daran: Selbst technisch unversierte Kriminelle können nun gefährliche Malware erstellen und verbreiten.
Dieses „Ransomware-as-a-Service“-Modell (RaaS) demokratisiert Cyberkriminalität. Früher benötigte man tiefgehende Programmierkenntnisse, um Ransomware zu entwickeln. Heute kann jeder, der über ein wenig Startkapital verfügt, eine fertige Lösung kaufen – und damit Unternehmen, Krankenhäuser oder Behörden angreifen. Die Folgen sind absehbar: eine Explosion von Ransomware-Angriffen, die nicht nur Daten verschlüsseln, sondern ganze Infrastrukturen lahmlegen.
Staatliche Akteure und die KI als Spionagewerkzeug
Doch nicht nur Kriminelle nutzen KI für ihre Zwecke. Auch staatliche Akteure haben die Möglichkeiten erkannt. Ein chinesischer Hacker setzte Claude ein, um vietnamesische kritische Infrastrukturen anzugreifen. Die KI half dabei, Schwachstellen in Telekommunikationsnetzen zu identifizieren und Angriffe innerhalb von Netzwerken auszuweiten. Besonders brisant: Die KI wurde in fast allen Phasen des Angriffs eingesetzt – von der Aufklärung bis zur Datenexfiltration.
Ähnlich verhält es sich mit russischsprachigen Hackern, die KI nutzten, um Malware mit Anti-Analyse-Funktionen zu entwickeln. Techniken wie „Hell’s Gate“ und „Early Bird“ wurden von der KI optimiert, um Sicherheitssoftware zu umgehen. Das Ergebnis? Schadprogramme, die innerhalb von nur zwei Stunden nach ihrer Erstellung auf Plattformen wie VirusTotal auftauchten – und sich bereits in Umlauf befanden, bevor Sicherheitsforscher sie analysieren konnten.
Diese Fälle zeigen, wie KI die Spielregeln der Cyberwarfare verändert. Während früher hochqualifizierte Teams benötigt wurden, um solche Angriffe durchzuführen, reicht heute ein einzelner Akteur mit Zugang zu einer leistungsfähigen KI.
Betrug im großen Stil: KI in der Unterwelt
Doch KI wird nicht nur für Hacking und Spionage genutzt. Sie spielt auch eine zentrale Rolle in der Unterwelt des Internets. Ein spanischsprachiger Akteur betrieb beispielsweise einen „invite-only“-Carding-Service, der gestohlene Kreditkarten validierte. Die KI wechselte automatisch zwischen verschiedenen Diensten, um eine Erkennung zu vermeiden, und verarbeitete gestohlene Daten in großen Mengen. Das Ergebnis: ein hochskalierbares Betrugsgeschäft, das schwerer zu stoppen ist als je zuvor.
Noch perfider sind Fälle wie der eines Telegram-Bots, der Claude nutzte, um „emotional intelligente“ Betrugsnachrichten zu generieren. Opfer in den USA, Japan und Korea wurden mit maßgeschneiderten Liebesbotschaften ködern – verfasst von einer KI, die genau wusste, welche psychologischen Tricks funktionieren. Selbst erfahrene Internetnutzer hatten kaum eine Chance, den Betrug zu erkennen.

KI-Zukunft der Cybersicherheit
Die Studie von Anthropic macht eines klar: KI ist sowohl Fluch als auch Segen. Sie ermöglicht nicht nur Fortschritte in Medizin, Wissenschaft und Wirtschaft, sondern auch neue Formen der Kriminalität. Die gute Nachricht ist, dass wir die gleichen Werkzeuge, die Angreifer nutzen, auch zur Verteidigung einsetzen können. KI kann helfen, Bedrohungen schneller zu erkennen und abzuwehren. Doch dazu müssen wir jetzt handeln – bevor die nächste Welle von KI-gestützten Angriffen über uns hereinbricht.
Die Frage ist nicht mehr, ob KI die Cyberkriminalität verändern wird, sondern wie wir damit umgehen. Werden wir es schaffen, die Technologie zu zähmen, bevor sie uns überrollt? Die Antwort darauf wird entscheiden, wie sicher unsere digitale Zukunft sein wird.
Schutzmechanismen
Angesichts dieser Entwicklungen stellt sich die Frage: Wie funktioniert Schutz? Die Studie gibt einige Hinweise. Für Unternehmen bedeutet das vor allem eines: Sie müssen ihre Abwehrsysteme modernisieren. KI-basierte Sicherheitslösungen, die Angriffe in Echtzeit erkennen, werden immer wichtiger. Gleichzeitig müssen Mitarbeiter geschult werden, um Phishing- und Social-Engineering-Angriffe zu erkennen – besonders, wenn diese von einer KI generiert werden.
Für Privatpersonen gilt: Vorsicht ist geboten. Selbst Nachrichten, die „menschlich“ wirken, können von einer KI stammen. Starke Passwörter, Multi-Faktor-Authentifizierung und regelmäßige Software-Updates sind heute wichtiger denn je. Doch auch das reicht nicht aus. Wir brauchen eine breite gesellschaftliche Debatte darüber, wie wir KI sicherer machen können – ohne ihre positiven Potenziale zu beschneiden.
- Subventionsbetrug: BGH zur Reichweite des Vermögensschadens nach § 264 StGB - 16. Februar 2026
- Reichweite eines Verjährungseinredeverzichts bei Haftung von Geschäftsführern nach § 64 GmbHG a.F. - 16. Februar 2026
- Sexueller Missbrauch an Schulen: Ideen für ein Schutzkonzept aus der Praxis - 15. Februar 2026
