Cybertruck-Explosion in Las Vegas: ChatGPT als Werkzeug zur Tatvorbereitung?

Am Neujahrstag 2025 kam es vor dem Trump International Hotel in Las Vegas zu einer Explosion eines Tesla Cybertrucks, bei der der Täter, ein 37-jähriger US-Soldat, ums Leben kam. Die Ermittler stellten fest, dass der Täter, MAL, unter anderem ChatGPT genutzt hatte, um Informationen über Sprengstoffe, deren Zündung und die Beschaffung von Materialien zu erhalten. Dies wirft erneut Fragen zur Sicherheit und Nutzung von KI auf.

Der Fall: Nutzung von ChatGPT

MAL stellte dem KI-Tool Fragen zu Themen wie der Zündung von Sprengstoffen, dem Einsatz von Feuerwerkskörpern und der Beschaffung von Waffen entlang seiner Route. ChatGPT, so erklärten Vertreter von OpenAI, antwortete ausschließlich mit Informationen, die bereits öffentlich zugänglich waren, und warnte den Nutzer vor illegalen Aktivitäten. Dennoch wurde deutlich, dass die bestehenden Sicherheitsmechanismen der KI umgangen werden konnten oder keine abschreckende Wirkung zeigten.

Sorgen der Ermittler

Ermittler und Sicherheitsbehörden äußerten Besorgnis über die zunehmende Verfügbarkeit von KI-Tools und deren potenziellen Missbrauch. Der Sheriff von Clark County betonte, dass dies der erste Fall auf US-amerikanischem Boden sei, bei dem generative KI zur Vorbereitung einer solchen Tat genutzt wurde. Die Behörden betonten, dass KI-Technologien bestehende Sicherheitsprobleme nicht nur reproduzieren, sondern durch Skalierbarkeit und Zugänglichkeit verstärken können.

Frei zugängliche bzw. verständlich aufbereitete Informationen können immer für böswillige Aktionen genutzt werden – wir überlegen ja auch nicht ernsthaft, Chemie-Bücher in Büchereien zu verbieten.

Rechtsanwalt Jens Ferner

OpenAI und die Grenzen von KI-Sicherheit

OpenAI gab an, eng mit den Ermittlern zusammenzuarbeiten und die Sicherheitsmechanismen von ChatGPT stetig zu verbessern. Trotz dieser Bemühungen zeigte der Fall, dass KI nicht absolut vor Missbrauch geschützt werden kann. KI-Modelle wie ChatGPT basieren auf öffentlich zugänglichen Informationen und können bei gezielten Abfragen, auch durch sogenannte „Jailbreaks“, für böswillige Zwecke missbraucht werden. Solche Sicherheitslücken wurden bereits in der Vergangenheit aufgezeigt und dokumentiert.


Ein absolutes Sicherheitsnetz – möglich oder Illusion?

Die von den Ermittlern veröffentlichten ChatGPT-Anfragen (wohl nicht mehr im Detail verfügbar, mir liegen sie noch vor) des Täters zeigen ein auf, das Fragen zu Waffen, Sprengstoffen und deren Zündung umfasst. Interessant ist hierbei, dass diese Anfragen so allgemein gehalten waren, dass allein aus den Texten kein unmittelbarer Rückschluss auf böswillige Absichten gezogen werden konnte. Beispielsweise wurden technische Details zu Schusswaffen, rechtliche Fragen zum Kauf von Feuerwerkskörpern und physikalische Berechnungen zu Geschossgeschwindigkeiten erfragt. Diese Themen könnten – isoliert betrachtet – ebenso gut von einer legalen, neugierigen oder technisch interessierten Person gestellt worden sein.

Das eigentliche Problem liegt darin, dass KI-Systeme wie ChatGPT keine menschliche Intelligenz besitzen, um solche Kontexte zu erkennen oder die böswillige Intention eines Nutzers zu entschlüsseln. Während ein Mensch im Gesamtbild der Anfragen die Böswilligkeit des Täters erkennen könnte, fehlt einem Chatbot diese Fähigkeit vollständig. Hier zeigt sich die begrenzte Reichweite aktueller Sicherheitsmechanismen in generativen KI-Modellen.

Zusätzlich wird die Erkennung problematischer Nutzung weiter erschwert, wenn Nutzer wiederholt neue Chats erstellen. In einem solchen Szenario könnten die Anfragen eines Nutzers über mehrere Chats hinweg verstreut sein, wodurch keine einzelnen „Verdachtsmomente“ auftreten. Ein echtes Sicherheitsnetz, das böswillige Muster aufdecken kann, wäre nur denkbar, wenn alle getrennten Chats eines Nutzers konsolidiert und im Gesamteindruck überwacht würden. Dies wirft jedoch erhebliche Fragen zur Privatsphäre, zur Datenverarbeitung und zu möglichen Überwachungsmaßnahmen auf.

Cybertruck-Explosion in Las Vegas: ChatGPT als Werkzeug zur Tatvorbereitung? - Rechtsanwalt Ferner

Die Implementierung solcher Überwachungsmechanismen wäre ethisch und rechtlich hochgradig umstritten. Sie würde den Konflikt zwischen dem Bedürfnis nach öffentlicher Sicherheit und dem Schutz der Privatsphäre verschärfen. Darüber hinaus müsste ein solcher Ansatz technisch realisierbar sein und gleichzeitig sicherstellen, dass er nicht missbraucht wird – eine Herausforderung, die erhebliche gesellschaftliche Debatten erfordern würde.

Ausblick

Der Fall in Las Vegas verdeutlicht die Herausforderungen, die mit der Verbreitung generativer KI einhergehen. Während diese Technologien großes Potenzial bieten, fordern sie ebenso einen verantwortungsvollen Umgang und kontinuierliche Anpassungen der Sicherheitsmechanismen. Letztlich bleibt es eine gesamtgesellschaftliche Aufgabe, die Risiken von KI zu minimieren, ohne ihre Vorteile zu verlieren – und zugleich aus eine gewisse gesellschaftliche Resilienz zu entwickeln. Frei zugängliche bzw. verständlich aufbereitete Informationen können immer für böswillige Aktionen genutzt werden – wir überlegen ja auch nicht ernsthaft, Chemie-Bücher in Büchereien zu verbieten. Freiheitliche Gesellschaften haben insoweit immer ein grundsätzliches Risiko des Missbrauchs von Freiheiten, auch für böswillige Zwecke, das es zu begrenzen gilt.

Rechtsanwalt Jens Ferner (Fachanwalt für IT- & Strafrecht)
Letzte Artikel von Rechtsanwalt Jens Ferner (Fachanwalt für IT- & Strafrecht) (Alle anzeigen)

Von Rechtsanwalt Jens Ferner (Fachanwalt für IT- & Strafrecht)

Ich bin Fachanwalt für Strafrecht + Fachanwalt für IT-Recht und widme mich beruflich ganz der Tätigkeit als Strafverteidiger und dem IT-Recht. Vor meinem Leben als Anwalt war ich Softwareentwickler. Ich bin Autor sowohl in einem renommierten StPO-Kommentar als auch in Fachzeitschriften. Dabei bin ich fortgebildet in Krisenkommunikation und Compliance.

Erreichbarkeit: Per Mail, Rückruf, Threema oder Whatsapp.

Unsere Kanzlei ist spezialisiert auf Starke Strafverteidigung, seriöses Wirtschaftsstrafrecht und anspruchsvolles IT-Recht + Kunst & Medien - ergänzt um Arbeitsrecht.