Die Entscheidung des Landgerichts Kiel vom 29. Februar 2024 (Az. 6 O 151/23) ist eine Auseinandersetzung mit der Frage, inwieweit Betreiber von KI-gestützten Systemen für Fehler und Falschinformationen haften, die durch automatisierte Prozesse entstehen. Die Klägerin, ein mittelständisches Unternehmen, wehrte sich erfolgreich gegen die Verbreitung falscher Informationen über ihre angebliche Löschung wegen Vermögenslosigkeit.
Hintergrund und Kernaussagen der Entscheidung
- Falschinformation durch automatisierte KI-Systeme:
Das beklagte Unternehmen betreibt ein Portal, das öffentlich zugängliche Wirtschaftsinformationen mit KI verarbeitet und darstellt. Die KI hatte jedoch fehlerhaft eine Löschung der Klägerin aufgrund Vermögenslosigkeit gemeldet. Dieses Missverständnis entstand durch einen Zuordnungsfehler im Verarbeitungsprozess. - Haftung trotz automatisierter Prozesse:
Das Gericht betonte, dass die Beklagte als unmittelbare Störerin haftet. Sie kann sich nicht auf die vollständige Automatisierung der Fehlerentstehung berufen, da sie bewusst KI-Systeme einsetzt und die fehlerhaften Inhalte auf ihrer Plattform veröffentlicht. - Rechtsverletzung und Abwägung:
Die unwahre Tatsachenbehauptung stellte einen erheblichen Eingriff in das allgemeine Persönlichkeitsrecht und den sozialen Geltungsanspruch der Klägerin dar. Dieser Eingriff überwog bei der Abwägung gegenüber der Meinungs- und Kommunikationsfreiheit der Beklagten, da unwahre Tatsachenbehauptungen keinen grundrechtlichen Schutz genießen. - Wiederholungsgefahr:
Das Gericht sah eine Wiederholungsgefahr als gegeben an, da die Beklagte selbst auf mögliche Fehlerquellen in ihren Nutzungsbedingungen hinweist und keine ausreichenden Maßnahmen zur Fehlervermeidung implementiert hat.
Bedeutung für die Haftung bei KI-Systemen
Die Entscheidung unterstreicht, dass Betreiber von KI-Systemen trotz Automatisierung für Inhalte haften, die durch diese Systeme generiert und verbreitet werden. Dies gilt insbesondere dann, wenn die Betreiber durch den Einsatz solcher Technologien eine eigene inhaltliche Verantwortung übernehmen:
Die Klägerin ist jedoch als unmittelbare Störerin anzusehen, weil sie sich willentlich zur Beantwortung von Suchanfragen einer eigenen Software bedient, die Informationen aus den veröffentlichten Pflichtmitteilungen extrahiert und aufbereitet veröffentlicht. Die Beklagte kann sich nicht darauf zurückziehen, sie sei an diesem automatischen Vorgang nicht beteiligt gewesen, weil sie sich bewusst zur Beantwortung von Suchanfragen ihrer Nutzer einer künstlichen Intelligenz bedient hat, die in Fällen wie diesem unzulänglich programmiert war, weil sie nicht erkannt hat, dass vorliegend die XXX, Amtsgericht XXX HRB XXX, gemeint war und ein Zuordnungsfehler (XXX vs XXX) vorlag (…).
Zum anderen haftet der Betreiber eines Portals auch dann als unmittelbarer Störer für die von einem Dritten eingestellten Inhalte, wenn er sich diese aus Sicht eines verständigen Durchschnittsnutzers auf der Grundlage einer Gesamtbetrachtung aller relevanten Umstände zu eigen gemacht und dafür nach außen erkennbar die inhaltliche Verantwortung übernommen hat (…).
Dies schafft die Beklagte dadurch, dass sie die Pflichtveröffentlichungen zu einem Unternehmen bei sich auf der Seite bündelt und die Informationen teilweise untereinander verknüpft.
Praxisrelevanz
- Für Unternehmen: Die Entscheidung zeigt, dass ein Verweis auf die Automatisierung von Prozessen keine ausreichende Verteidigung darstellt, wenn Fehler zu rechtlich relevanten Schäden führen. Unternehmen müssen sicherstellen, dass ihre KI-Systeme durch geeignete Kontrollmechanismen abgesichert sind.
- Für KI-Anbieter: Es wird deutlich, dass die Haftung nicht nur auf Betreiber von Plattformen beschränkt ist. Auch Anbieter von KI-Lösungen könnten in Zukunft stärker in die Verantwortung genommen werden, wenn ihre Systeme Fehler verursachen.
- Für den Gesetzgeber: Die Entscheidung hebt die Notwendigkeit klarer Regelungen zur Haftung für KI-gestützte Prozesse hervor, um Rechtsunsicherheiten zu vermeiden.
Es gelten die bisherigen, über Jahrzehnte von Rechtsprechung entwickelten Grundsätze: Wer sich Inhalte zu eigen macht, haftet dafür. Es ist nicht zu erkennen, warum der Einsatz von KI – der genau genommen noch mehr Gefahren schafft – zur Privilegierung dienen soll.
Fazit
Das Urteil des LG Kiel setzt ein wenig überraschendes aber klares Zeichen, dass sich auch moderne Technologien wie KI den Grundsätzen des Rechts unterordnen müssen. Betreiber solcher Systeme sollten aus der Entscheidung lernen und präventive Maßnahmen ergreifen, um rechtliche Risiken zu minimieren. Auf jeden Fall wird es nichts mit der Hoffnung, dass man sich durch den Verweis auf „autonome KI“ aus der Haftung entziehen kann.
- KCanG: BGH zur Zusammenrechnung von Freimengen - 5. Dezember 2024
- BVerfG zu Encrochat: Keine generellen Beweisverwertungsverbote - 5. Dezember 2024
- „Operation Passionflower“ – Schlag gegen kriminellen Kryptomessenger MATRIX - 5. Dezember 2024