Beim Landgericht Frankfurt findet sich ein Urteil vom 10. September 2025 (Az: 2-06 O 271/25) mit einer beachtlichen Entscheidung zur Haftung von Suchmaschinenbetreibern für falsche KI-generierte Informationen: Im Mittelpunkt stand die Frage, ob ein marktbeherrschendes Unternehmen für unzutreffende, durch KI erstellte Übersichten in Suchergebnissen haftbar gemacht werden kann – und ob darin ein Missbrauch der Marktstellung liegt. Es ging also vor allem um kartellrechtliche Fragen.
Medizinische Fehlinformation als kartellrechtliches Problem
Ein Verbund von Ärzten, der sich auf plastisch-chirurgische Eingriffe im männlichen Intimbereich spezialisiert hat, klagte gegen einen Suchmaschinenbetreiber, der als „Gatekeeper“ im Sinne des Digital Markets Act (DMA) eingestuft ist. Anlass war eine KI-generierte „Übersicht mit KI“, die bei der Suche nach „Penisvergrößerung“ eine medizinisch unpräzise Aussage traf: „Bei einer Penisverlängerung wird der im Körper verborgene Teil des Penis durchtrennt und nach außen verlagert.“ Die Kläger argumentierten, diese Darstellung sei falsch, schrecke potenzielle Patienten ab und beeinträchtige ihre wirtschaftliche Existenz. Sie sahen darin einen Missbrauch der marktbeherrschenden Stellung gemäß § 19 GWB sowie einen Verstoß gegen das Selbstbevorzugungsverbot des DMA.
Die Kläger stützten sich auf zwei zentrale Vorwürfe: Erstens, die KI-Übersicht sei objektiv unrichtig und führe zu einer unbilligen Behinderung im Wettbewerb. Und dann wweitens, dass die prominente Platzierung der Übersicht vor den organischen Suchergebnissen eine unzulässige Selbstbevorzugung darstelle, da eigene Inhalte gegenüber externen Angeboten bevorzugt würden. Das Gericht hatte somit nicht nur über die Richtigkeit einer medizinischen Aussage zu entscheiden, sondern auch über die rechtlichen Grenzen von KI-Systemen in marktbeherrschenden Plattformen.
Zwischen neutraler Vermittlung und eigener Äußerung
Das Gericht wies den Antrag auf einstweilige Verfügung zurück und stellte klar, dass die Haftung für KI-generierte Inhalte nicht pauschal ausgeschlossen ist. Entscheidend sei vielmehr, wie die angesprochenen Nutzer die Aussage verstehen. Im konkreten Fall erachtete das Gericht die beanstandete Formulierung im Gesamtkontext nicht als falsch. Die Übersicht erläutere im weiteren Verlauf, dass die „Durchtrennung“ sich auf das Lösen der Haltebänder beziehe – ein medizinisch korrekter Vorgang. Für den durchschnittlichen Leser sei damit erkennbar, dass nicht der Penis selbst, sondern nur ein Teil des Halteapparats betroffen sei. Die KI-Übersicht wurde somit nicht als eigenständige, irreführende Behauptung gewertet, sondern als zusammenfassende Darstellung, die im Kontext richtig sei.
Interessant ist die rechtliche Einordnung der KI-Übersicht: Das Gericht vermied eine klare Zuordnung, ob es sich um eine „eigene Äußerung“ des Suchmaschinenbetreibers oder um eine neutrale Aggregation fremder Inhalte handelt. Stattdessen betonte es, dass die Übersicht als Teil des Suchergebnisses zu verstehen sei – und damit nicht als separates „Produkt“ im Sinne des DMA, das gegenüber Drittinhalten bevorzugt werde. Diese Interpretation unterstreicht, dass KI-generierte Zusammenfassungen nicht automatisch als eigenständige Dienstleistungen gelten, solange sie sich auf die Suchanfrage beziehen und keine externen Angebote verdrängen.
Unbillige Behinderung und Selbstbevorzugung
Die Kläger argumentierten, die KI-Übersicht führe zu einem „Zero-Click-Phänomen“, bei dem Nutzer die Suche nach Lektüre der Übersicht beenden und externe Webseiten nicht mehr aufrufen. Das Gericht erkannte zwar an, dass eine solche Verschiebung der Klickströme theoretisch eine Behinderung darstellen könne. Im vorliegenden Fall fehle es jedoch an der Unbilligkeit, da die Aussage nicht falsch sei und keine gezielte Benachteiligung vorliege. Zudem sei die KI-Übersicht kein eigenständiges Produkt, das gegenüber Drittanbietern bevorzugt werde. Vielmehr handele es sich um eine technische Weiterentwicklung der Suchfunktion, die auch im Interesse der Nutzer liege.
Hier zeigt sich eine wichtige Weichenstellung: Nicht jede Veränderung der Suchergebnisdarstellung durch KI stellt einen kartellrechtlichen Verstoß dar. Entscheidend ist, ob die Maßnahme sachlich gerechtfertigt ist und keine willkürliche Benachteiligung bewirkt. Das Gericht verwies darauf, dass die Antragstellerin nicht nachweisen konnte, dass die KI-Übersicht gezielt eigene Dienste des Suchmaschinenbetreibers fördere oder Drittanbieter systematisch zurückdränge. Solange die KI-Inhalte als Teil der Suchfunktion erscheinen und keine separaten, wettbewerbsrelevanten Angebote darstellen, greift das Selbstbevorzugungsverbot des DMA nicht. Das muss aber nicht immer so sein:
Die Kammer hält es in Anwendung dieser Grundsätze durchaus für möglich, dass eine objektiv falsche Angabe in der KI-Übersicht der Antragsgegnerin eine Unbilligkeit der Behinderung begründen kann. Dies gilt erst recht, soweit es sich um Äußerungen handelt, die medizinische Angaben enthalten, da hierdurch Gemeinwohlbelange beeinträchtigt werden können. Denn jedenfalls bei gesundheitsbezogener Werbung sind besonders strenge Anforderungen an die Richtigkeit, Eindeutigkeit und Klarheit der Werbeaussage zu stellen, da mit irreführenden gesundheitsbezogenen Angaben erhebliche Gefahren für das hohe Schutzgut des Einzelnen sowie der Bevölkerung verbunden sein können (…). Diese Grundsätze bzw. deren Zielsetzung können insoweit jedenfalls ansatzweise herangezogen werden, auch wenn die Antragsgegnerin nicht konkret gesundheitsbezogene Werbung macht.
Die Frage, ob die Antragsgegnerin mit Erfolg einwenden kann, dass es sich bei der von ihr angezeigten „Übersicht mit KI“ lediglich um Informationen Dritter handelt oder die „Übersicht mit KI“ nicht vielmehr als eigene Äußerung bzw. eigene Information der Antragsgegnerin anzusehen ist, weil sie unter Verwendung von ihr zuzurechnenden Techniken aus den Quellen Dritter ein selbst generiertes „Konglomerat“ vergleichbar einer Zusammenfassung (…) erstellt und dem Nutzer anzeigt, konnte offenbleiben.
Gemeinwohlbelange und Verantwortung
Besonders relevant ist die Abwägung zwischen wirtschaftlichem Wettbewerb und dem Schutz vor Fehlinformationen. Das Gericht betonte, dass bei gesundheitsbezogenen Angaben besonders strenge Anforderungen an Richtigkeit und Klarheit gelten. Dennoch reiche eine isoliert betrachtete Ungenauigkeit nicht aus, um eine unbillige Behinderung zu begründen – solange der Gesamtkontext ein zutreffendes Verständnis ermöglicht.
Gerichte müssen bei der Bewertung von KI-Inhalten nicht nur technische, sondern auch inhaltliche Aspekte berücksichtigen. Die Verantwortung für die Richtigkeit von Informationen bleibt jedenfalls bei den Plattformbetreibern, allerdings mit einem weiten Ermessensspielraum.
Haftung für KI-Zusammenfassungen?

Ich hatte es in meinem Beitrag zur Haftung für Chatbots schon klargestellt: Eine Haftung für autonom generierte Inhalte steht im Raum, aber eben nicht pauschal. Das LG Frankfurt-Urteil ist ein erster Orientierungspunkt, kein Schlusspunkt. Die grundsätzliche Anerkennung der Haftungsfähigkeit ist zu begrüßen, die konkrete Anwendung bleibt jedoch unbefriedigend. Insoweit gilt: Es gibt keine Freifahrtscheine, aber auch keine Generalverbote. KI-Übersichten sind kartellrechtlich zumindest zulässig, solange sie inhaltlich korrekt, kontextuell nachvollziehbar und transparent gekennzeichnet sind. Das dürfte sich auch auf andere rechtliche Betrachtungen übertragen lassen, wie ich in meinem Chatbot-Artikel herausgearbeitet habe.
Bei sensiblen Themen ist jedoch immer besondere Sorgfalt geboten. Hinweise wie „KI-Antworten können Fehler enthalten” reichen nicht aus, wenn systematisch Falschinformationen verbreitet werden. Für betroffene Unternehmen und Rechteinhaber, die sich wehren wollen, eröffnet das Urteil den kartellrechtlichen Weg (§§ 33, 19 GWB), setzt aber hohe Hürden. Die Falschheit muss im Gesamtkontext nachweisbar sein und die Behinderung muss unbillig sein. Der DMA-Weg scheint nach derzeitiger Rechtsprechung versperrt, bis die EU-Kommission oder höhere Instanzen eine abweichende Bewertung vornehmen. Drei Entwicklungen zeichnen sich ab:
- Erstens wird der Gesetzgeber klare Regeln schaffen müssen – insbesondere zur Haftungsverteilung zwischen KI-Anbietern, -Betreibern und -Nutzern. Die EU-KI-Haftungs-Richtlinie (derzeit im Umsetzungsprozess) wird hier Standards setzen, etwa durch Beweislastumkehr und verschärfte Sorgfaltspflichten.
- Zweitens wird die Rechtsprechung die Grenze zwischen „integrierten Suchfunktionen“ und „eigenständigen Produkten“ nachschärfen müssen. Die Frage, ob KI-Übersichten unter das DMA-Selbstbevorzugungsverbot fallen, wird vermutlich erst der EuGH abschließend klären.
- Drittens bedarf es technischer Standards für algorithmische Transparenz und Fairness. Die bloße Kennzeichnung „generiert durch KI“ genügt nicht – Nutzer müssen nachvollziehen können, auf welchen Quellen die Synthese beruht, wie aktuell die Informationen sind und mit welcher Konfidenz das System arbeitet.
Die Diskussion um KI und Haftung steht erst am Anfang, wie auch das LG Frankfurt-Urteil zeigt: Die bestehenden Rechtsinstitute (Störerhaftung, Kartellrecht, DMA) sind prinzipiell anwendbar, stoßen aber an ihre Grenzen, wenn synthetische Informationssysteme die klassische Vermittlerrolle von Plattformen transformieren.
KI-Anwendungen erfordern nicht nur technisches, sondern auch rechtliches Risikomanagement. Die Einzelfallprüfung wird zum Standard, da pauschale Lösungen zu kurz greifen. Besonders bei Hochrisiko-Anwendungen müssen robuste Qualitätssicherungsprozesse implementiert werden, die von Bias-Testing über menschliche Kontrollschleifen bis hin zu transparenten Fehlermeldemechanismen reichen.
- Urheberrecht an KI-generierten Logos? - 14. Februar 2026
- Ransomware: Lösegeld an die Erpresser bezahlen? - 13. Februar 2026
- NPSG: Lachgas und GBL zukünftig erfasst (2026) - 13. Februar 2026
