Eine undeklarierte Nutzung künstlicher Intelligenz durch Sachverständige in einem Prozess kann nicht nur die Verwertbarkeit eines Gutachtens infrage stellen, sondern sogar zur vollständigen Streichung der Vergütung führen – so das Landgericht Darmstadt (19 O 527/16). Endlich einmal wird hier der Einsatz von KI in der Justiz aus anderem Blickwinkel betrachtet, fernab von Anwälten und Richtern; am Ende geht es darum, wie moderne Hilfsmittel in der forensischen Praxis einzusetzen sind, ohne die prozessualen Grundsätze der Transparenz und Persönlichkeit zu untergraben.
Gutachten zwischen KI und Schweigen
Ein von von einem Sachverständigen erstelltes Gutachten sollte im Rahmen eines Zivilverfahrens klären, ob bei der Klägerin ein Dauerschaden nach einem Unfall vorliegt. Bereits die äußeren Umstände des Gutachtens weckten Zweifel: Innerhalb von nur einem Monat nach Aktenübersendung legte der Sachverständige ein 14-seitiges Dokument vor, das formal von ihm und einem „Sachbearbeiter“ unterzeichnet war.
Doch weder die inhaltliche Qualität noch die Umstände der Erstellung entsprachen den Erwartungen des Gerichts. Auf Nachfrage des Landgerichts Darmstadt blieb der Sachverständige eine schlüssige Erklärung schuldig, wer das Gutachten tatsächlich verfasst hatte. Stattdessen verwies er in einem späteren Schreiben vage auf eine mögliche Zusammenarbeit mit dem Sachbearbeiter – zugleich erklärte er, das Gutachten nicht fristgerecht fertigen zu können, ohne zu klären, warum das Gutachten bereits drei Monate zuvor eingereicht worden war:
In einem Schreiben vom 23.10.2025 (Bl. 875 d. A.) teilte Prof. Dr. A mit, er könne das Gutachten nicht „in diesem genannten Zeitraum“ bearbeiten und er könne dieses gerne „in Zusammenarbeit mit unserem Dr. Dr. med. dent. C durchfuhren. Die Gesamtverantwortung wird natürlich bei mir verbleiben.“ Dass das „Gutachten“ zu diesem Zeitpunkt bereits seit beinahe drei Monaten vorlag wird dabei nicht einmal zur Kenntnis genommen. Auch findet sich darin keine Angabe dazu, wer das „Gutachten“ vom 10.08.2025 erstattet hatte.
Die Analyse des Textes durch das Gericht förderte weitere Ungereimtheiten zutage: Der Stil des Gutachtens wies typische Merkmale KI-generierter Texte auf, etwa repetitive Satzstrukturen, unnatürliche Wiederholungen von Formulierungen aus dem Beweisbeschluss und logische Brüche, die auf eine unkritische Übernahme von KI-Ausgaben hindeuteten.
Besonders auffällig war für das Gericht der Kontrast zwischen den Passagen, die sich wie eine generische Aktenzusammenfassung lasen, und den wenigen Abschnitten, die menschliche Bearbeitungsspuren trugen. Selbst dort basierten die Ausführungen offenbar auf den fehlerhaften Vorlagen der KI, etwa wenn ein Unfallhergang beschrieben wurde, der sich so weder aus den Akten noch aus der Darstellung der Klägerin ergab. Hinzu kam, dass die Klägerin offenbar nie untersucht worden war – eine grundlegende Voraussetzung für jedes medizinische Gutachten:
Hinzukommt, dass das Gericht (…) davon überzeugt ist, dass das Gutachten in wesentlichen Teilen unter Verwendung einer KI zustande gekommen ist. Dafür spricht bereits der gesamte Stil der Abfassung. So ergibt es schon keinen Sinn, dass der Sachverständige sich selbst mit voller Anschrift als Adressaten des an ihn gerichteten Beweisbeschlusses benennt (Seite 2); auch die dreifache Wiederholung des „Schreibens des Landgerichts Darmstadt vom 10.07.2025“ ist untypisch für einen menschlich angefertigten Text und spricht für eine Anfertigung durch KI.
Der Text besteht insgesamt fast ausschließlich aus Hauptsätzen mit den selben Satzanfängen, was ein häufiges KI-Muster ist. Die Satzfragmente auf Seite 3 oben erklären sich durch die KI-typische Wiederholung, ob der Auftrag des Prompts richtig erfolgt ist. Der dann zugefügte Halbsatz „das Gutachten des Dipl.-Ing. B wird berücksichtigt.“ erklärt sich durch ein Nachschärfen des Prompt. Die Ausführungen auf Seite 2 bis 5 und 9 lesen sich insgesamt wie die generische KI-Zusammenfassung der Akten. Dieser Unterschied ist auch nicht nur mit dem unterschiedlichen Ziel der Abschnitte zu erklären.
Das Gericht kommt zu dem Ergebnis, dass der Großteil des „Gutachtens“ mit KI erstellt wurde und die inhaltlichen Ausführungen allein auf der Grundlage der KI-Zusammenfassung erfolgen, was zu den erwartbaren Ungenauigkeiten führt, die das „Gutachten“ insgesamt unbrauchbar machen.
Vergütung auf null gesetzt
Das Gericht stützte seine Entscheidung auf drei zentrale Punkte, die jeweils für sich genommen bereits die Aberkennung der Vergütung rechtfertigten. Zunächst verletzte der Sachverständige die Pflicht aus § 407a Abs. 3 ZPO, das Gericht über die Einbindung Dritter zu informieren, wobei das Gericht damit wohl den weiteren Sachbearbeiter und nicht die KI meint. Diese Vorschrift dient dem Zweck, die persönliche Verantwortung des Sachverständigen für sein Gutachten sicherzustellen.
Wenn unklar bleibt, ob und in welchem Umfang eine KI die inhaltliche Arbeit übernommen hat, fehlt es letztlich an der notwendigen Gewähr für die Richtigkeit und Neutralität der Ausführungen. Das Gericht betonte, dass bereits das Schweigen des Sachverständigen zu den Umständen der Erstellung die Vergütung nach § 8a Abs. 2 Satz 1 Nr. 1 JVEG auf null reduzierte, da nicht feststand, ob das Gutachten überhaupt von der bestellten Person stammte.
Darüber hinaus war das Gutachten nach § 8a Absatz 2 Satz 1 Nummer 2 JVEG unverwertbar, weil es inhaltlich mangelhaft war. Die fehlende Untersuchung der Klägerin und die falsche Darstellung des Unfallgeschehens machten es für das Verfahren unbrauchbar. Entscheidend war jedoch in diesem Punkt die Überzeugung des Gerichts, dass der überwiegende Teil des Textes durch KI generiert worden war. Die typischen Stilmerkmale – wie die mechanische Wiederholung von Satzanfängen oder die unkritische Übernahme von Akteninhalten – sprachen gegen eine eigenständige geistige Leistung. Selbst wenn Teile des Gutachtens menschlichen Ursprungs gewesen sein sollten, waren diese offenkundig auf einer fehlerhaften KI-Zusammenfassung aufgebaut und damit ebenfalls unzuverlässig.
Schließlich stand der abgerechnete Zeitaufwand in keinem Verhältnis zum tatsächlichen Arbeitsergebnis. Die sachlichen Ausführungen beschränkten sich auf anderthalb Seiten, während der Rest des Dokuments aus generischen Passagen bestand. Selbst bei großzügiger Bewertung hätte das Gericht allenfalls vier Stunden Arbeitszeit als angemessen erachtet – ein Bruchteil der abgerechneten Summe von 2.374,50 Euro.
Darf KI in Gutachten eingesetzt werden?

Ich verstehe die Entscheidung so, dass es nicht um ein pauschales Verbot von KI in der Sachverständigentätigkeit geht, sondern um eine Mahnung zur Transparenz. KI kann als Werkzeug dienen, etwa zur Strukturierung von Akteninhalten oder zur Recherche. Aus meiner Sicht kann sie im Einzelfall auch zur Erstellung von Zusammenfassungen eingesetzt werden. Hier sollte man wissen, dass sich nicht wenige Gutachter in seitenweisen Zusammenfassungen der Akte verlieren (und damit Stunden schinden), was aber ebenfalls bei der Vergütung gekürzt werden kann, wenn man als Verteidiger aufpasst.
Wenn der Einsatz von KI jedoch die inhaltliche Arbeit dominiert, ohne dass dies offengelegt wird, untergräbt dies das Vertrauen in die Neutralität und Sorgfalt des Gutachters. Das Gericht macht hier zutreffend deutlich, dass die persönliche Verantwortung des Sachverständigen nicht durch technologische Hilfsmittel ersetzt werden darf. Besonders problematisch ist in diesem Fall, dass die KI offenbar nicht als unterstützendes Instrument, sondern als primäre Autorin fungierte. An diesem Punkt muss jedoch berücksichtigt werden, dass das Urteil gleichzeitig moniert, dass unklar war, ob ein weiterer Sachbearbeiter eingebunden war, der seinerseits die KI eingesetzt haben könnte.
Jedenfalls dort, wo der Sachverständige den Sachverhalt selbst feststellen muss – etwa durch Exploration von Angeklagten oder wie hier durch die Auseinandersetzung mit einem konkreten Unfallgeschehen – darf er seine originäre Verantwortung nicht auf eine KI übertragen. Hier liegt die Grenze zwischen Werkzeug und originärer Tätigkeit. Die fehlerhafte Darstellung des Unfallhergangs zeigt, wie gefährlich es ist, KI-Ausgaben unkritisch zu übernehmen.
Insgesamt werden Berater dieses Urteil zur Kenntnis nehmen müssen. Ärzte, Anwälte, Gutachter … – all diese Berufsgruppen dürfen KI einsetzen. Dies ist auch im Sinne ihrer Kunden, da sich dadurch teure Zeit bei Routineaufgaben einsparen lässt. An dieser Stelle geht es nicht um die von der KI-Verordnung generell vorgesehene Transparenzpflicht gemäß Art. 50 Abs. 4 KI-VO, da diese bei menschlicher Kontrolle umgangen werden kann (Art. 50 Abs. 4 S. 5 KI-VO). Vielmehr geht es darum, dass Kunden von Beratern eine persönliche Leistung erwarten dürfen und insbesondere bei Kernleistungen darauf vertrauen können, dass persönlich gearbeitet wird. Kernleistungen sind dabei genau die Tätigkeiten, bei denen man „menschliche Leistung” erwartet, etwa das Feststellen von Tatsachen oder das Einordnen in einen höheren Kontext, etwa einen medizinischen oder juristischen. Aus meiner Sicht ist noch offen, ob ein Anwalt sich bei der Argumentation helfen lässt – wobei auch das nicht verboten sein wird; es geht allein um die Frage der notwendigen Offenlegung. Eine Verletzung von Offenlegungspflichten wird in erster Linie Auswirkungen auf die Höhe der Vergütung haben, die – wie im vorliegenden Fall – bis auf null Euro gekürzt werden könnte.
Transparenz bei forensischen Gutachten
Der Einsatz von KI in einem Gutachten ist also nicht ausgeschlossen, vorausgesetzt, die prozessualen Spielregeln werden eingehalten. KI kann die Arbeit von Sachverständigen erleichtern, aber sie darf nicht zur Blackbox werden, die die persönliche Verantwortung verschleiert. Wer moderne Tools einsetzt, muss dies offenlegen und sicherstellen, dass das Ergebnis den hohen Standards der Justiz entspricht. Andernfalls droht nicht nur die Ablehnung des Gutachtens, sondern zu Recht auch die vollständige Streichung der Vergütung.
Sachverständige müssen bei der Nutzung von KI besonders sorgfältig vorgehen: Sie sollten den Einsatz dokumentieren sowie kommunizieren, die Ergebnisse kritisch prüfen und klar im Sinne von Nachvollziehbar zwischen menschlicher und maschineller Leistung trennen.
- Verbot verkleideter Telekommunikationsanlagen und der „Smarte Futterautomat“ - 15. Januar 2026
- Terrorgram-Studie zu “Teenage Terrorists” - 14. Januar 2026
- Phishing-Angriff auf Apple Pay: Bank muss mangels starker Kundenauthentifizierung erstatten - 14. Januar 2026
