KI-Washing 2.0: Ausbeutung von Menschen bei KI-Modellen

Unternehmen, die Künstliche Intelligenz einsetzen, diskutieren derzeit vor allem Datenschutz, Urheberrecht und die kommende EU‑KI‑Verordnung. Weit weniger im Blick ist dagegen eine Rechtsmaterie, die der Nutzung bestimmter KI‑Modelle ganz handfest im Weg stehen kann: das deutsche Lieferkettensorgfaltspflichtengesetz (LkSG) … und auch der generelle ethische Einsatz. Denn: Menschen wurden und werden ausgebeutet beim Training von KI – und wir wissen das doch längst.

Das LkSG zwingt in meiner folgenden Überlegung dazu, die menschenrechtliche „Vorgeschichte“ eines Modells mitzudenken – und zwar auch dann, wenn dieses nur als fertiges Produkt eingekauft oder als Open‑Source‑Gewicht von Hugging Face heruntergeladen wird.

Ausbeutung für unsere KI-Modelle

Zahlreiche Reportagen und Analysen zeigen inzwischen sehr plastisch, wie systematisch Menschen im “globalen Süden” für das Training von KI‑Systemen ausgebeutet werden – finanziell wie psychisch. In ARTE‑Reportagen und begleitenden Beiträgen wird seit längerem von „Klickarbeiter:innen“ in Kenia und Madagaskar berichtet, die für westliche Tech‑Konzerne Inhalte labeln, Moderationsarbeit leisten oder Überwachungsaufgaben übernehmen und dabei zum Teil weniger als zwei US‑Dollar pro Stunde verdienen, ohne soziale Absicherung, oft über intransparente Zwischenhändler und auf einem informellen „Konten‑Schwarzmarkt“ für Crowdworking‑Plattformen. Ingo Dachwitz und Sven Hilbig beschreiben diese Konstellation in „Digitaler Kolonialismus“ als eine neue Form digitaler Plantagenökonomie: Heere von Klickarbeiter:innen verrichten unter prekären Bedingungen die unsichtbare Schwerarbeit der Digitalisierung, während Wertschöpfung und Entscheidungsmacht bei Konzernen im globalen Norden konzentriert bleiben.

Kate Crawford kartiert im „Atlas der KI“ diese Arbeitsrealitäten als festen Bestandteil der materiellen Infrastruktur von KI: von „Klickfabriken“ bis zu Trainingscamps, in denen Arbeiter:innen täglich mit Gewalt‑, Pornografie‑ und Hassinhalten konfrontiert werden, was zu anhaltenden psychischen Belastungen bis hin zu Traumatisierungen führt – ein Menscheneinsatz, der der sauberen, scheinbar immateriellen Oberfläche der KI‑Produkte frontal widerspricht.​ Dies auszublenden und KI-Modelle auf schlichte Daten zu reduzieren, ist für mich übrigens am Ende auch nur eine Form von KI-Washing.

KI‑Training als Teil der Lieferkette

Das LkSG knüpft nicht an Branchen, sondern an Lieferketten an. Es erfasst alle Schritte zur Herstellung von Produkten oder zur Erbringung von Dienstleistungen, einschließlich vorgelagerter Dienstleistungen wie etwa Fertigung, Logistik – oder eben Datenaufbereitung und Modelltraining. Maßgeblich ist, ob ein Schritt „erforderlich“ für das Endprodukt ist. Genau das trifft auf zentrale Phasen moderner KI‑Entwicklung zu: Annotation großer Datensätze, Content‑Moderation zur Erstellung von „Safety“-Filtern und Reinforcement Learning from Human Feedback (RLHF) sind keine Beiwerke, sondern conditio sine qua non eines marktreifen Modells.

In der Praxis werden diese Tätigkeiten häufig an Subunternehmer in Niedriglohnländern ausgelagert. Berichte über Content‑Moderatoren in Kenia oder auf den Philippinen schildern hochgradig belastende Arbeitsbedingungen: Arbeiter sichten stundenlang extrem gewalttätige, sexualisierte oder anderweitig verstörende Inhalte, um sie für die KI zu klassifizieren, häufig zu Dumpinglöhnen und mit minimaler psychologischer Unterstützung. Genau hier berührt die KI‑Lieferkette den Kernbereich des LkSG – den Schutz vor Menschenrechtsverletzungen und gravierenden Gefährdungen der Gesundheit am Arbeitsplatz.

Psychische Gesundheit und faire Bezahlung

Das LkSG kodifiziert einen Katalog geschützter Rechtspositionen. Dazu gehören klassische Verbote wie Kinderarbeit und Zwangsarbeit, aber auch die Missachtung von Arbeitsschutz und der Verstoß gegen das Recht auf angemessenen Lohn. Psychische Gesundheit ist ausdrücklich vom Schutzzweck des Arbeitsschutzes umfasst: Ein Arbeitsplatz, der strukturell zu Traumatisierungen führt, ohne dass Arbeitgeber geeignete Schutz‑ und Unterstützungsmaßnahmen ergreifen, steht mit den Anforderungen des Gesetzes kaum in Einklang.

Für KI‑Lieferketten bedeutet das: Wer seine Content‑Filter von Clickworkern in Kenia kuratieren lässt, diese aber unter massiv belastenden Bedingungen ohne adäquate Betreuung beschäftigt, bewegt sich in einem Bereich, der durchaus als menschenrechtliches Risiko im Sinne des LkSG zu qualifizieren ist. Hinzu kommt der Lohnaspekt: Viele Annotatoren arbeiten als vermeintlich Selbstständige auf Task‑Basis; der effektive Stundenlohn unterschreitet nicht selten existenzsichernde Niveaus. Damit geraten potenziell auch die Vorgaben zur angemessenen Vergütung in den Fokus.

Entscheidend ist, dass Unternehmen nicht nur unmittelbare Lieferanten berücksichtigen müssen, sondern bei „substantiierter Kenntnis“ auch auf tieferliegende Ebenen der Lieferkette einwirken müssen. Angesichts der öffentlichen Berichterstattung über Missstände im Bereich der KI‑Clickwork ist es schwer vertretbar, sich auf völlige Unwissenheit zu berufen.

Abhilfepflichten ohne Hebel

In der Theorie ist das System des LkSG klar: Stellt ein Unternehmen Risiken oder tatsächliche Verletzungen in seiner Lieferkette fest, hat es zunächst Präventions‑ und Abhilfemaßnahmen zu ergreifen. Ziel ist, Missstände zu beenden oder wenigstens zu minimieren. Erst wenn sich bei einem Zulieferer nichts bewegt und keine Einflussmöglichkeit besteht, bleibt als Ultima Ratio der Abbruch der Geschäftsbeziehung.

Überträgt man dieses Modell auf KI‑Anbieter, wird das Dilemma sichtbar. Ein großes deutsches Unternehmen, das etwa eine KI‑API aus den USA nutzt, hat faktisch nur begrenzten Hebel, um auf die dortige Ausgestaltung der Sub‑Sub‑Lieferkette einzuwirken. Noch drastischer ist die Situation bei Open‑Source‑Modellen, die über Plattformen wie Hugging Face bezogen werden: Hier bestehen zwar Lizenzbeziehungen zu Modellanbietern, aber keine realistische Möglichkeit, auf deren interne Lieferketten und Arbeitsbedingungen einzuwirken.

Für die Compliance ergibt sich daraus eine paradoxe Lage: Je weiter entfernt der menschenrechtlich problematische Teil der Lieferkette liegt und je geringer der vertragliche Einfluss, desto eher läuft die Abhilfepflicht leer. Im strengen Verständnis des LkSG bleibt dann nur die konsequente Folge – der Verzicht auf das betreffende Modell. Unternehmen, die ernsthaft LkSG‑konform agieren wollen, müssten sich von KI‑Systemen trennen, deren Training nachweislich oder mit hoher Wahrscheinlichkeit auf ausbeuterischen Strukturen beruht, ohne dass ihnen eine tragfähige Lösung zur Risikominimierung offensteht.

Open‑Source‑Modelle als Ausweg?

Besonders interessant ist die Frage, ob Open‑Source‑Modelle eine Art „Compliance‑Waschmaschine“ darstellen – nach dem Motto: Was gratis aus einem Repository bezogen wird, ist keine klassische Lieferkette, also kein LkSG‑Problem. Juristisch überzeugt das nicht. Auch wenn kein Geld fließt, besteht eine rechtliche Beziehung: Die Nutzung der Modellgewichte erfolgt auf Basis einer Lizenz. Der Lizenzgeber wird damit zum relevanten Akteur in der Wertschöpfungskette, und das Modell selbst zum Vorprodukt, das für eigene Produkte oder Dienstleistungen unverzichtbar ist.

Wenn bekannt ist, dass die Basismodelle unter Bedingungen trainiert wurden, die mit den menschenrechtlichen Vorgaben des LkSG kollidieren, übernimmt das nutzende Unternehmen dieses Risiko gewissermaßen mit. Eigene Weiterentwicklungen – etwa Fine‑Tuning oder die Integration in komplexe Softwareprodukte – ändern nichts daran, dass der „Grundstoff“ des Systems aus einem unter Umständen „kontaminierten“ Lieferkettenabschnitt stammt. Für LkSG‑pflichtige Unternehmen kann der Einsatz solcher Modelle daher zu einem schwer auflösbaren Spannungsfeld werden: Das Gesetz verlangt Sorgfalt, Abhilfe und notfalls Distanzierung – die technische Realität bietet aber kaum Mittel, die Vorgeschichte eines Modells zu überprüfen oder zu beeinflussen.

Rechtsanwalt Jens Ferner, TOP-Strafverteidiger und IT-Rechts-Experte - Fachanwalt für Strafrecht und Fachanwalt für IT-Recht

Fair‑Trade‑KI statt Black‑Box‑Modelle

Aus all dem folgt keine generelle Nutzungsuntersagung von KI, wohl aber ein Umdenken in der Beschaffung. Unternehmen, die unter das LkSG fallen, werden sich künftig die Frage gefallen lassen müssen, ob sie ohne vertretbare Risikoanalyse auf Modelle setzen dürfen, deren Trainingsbedingungen intransparent oder offenkundig problematisch sind. Für Anbieter von KI‑Systemen eröffnet sich umgekehrt ein Markt für „Fair‑Trade‑KI“: Modelle, deren Training unter nachweislich fairen, gesundheitsverträglichen Bedingungen und mit nachvollziehbarer Lieferkette erfolgt ist.

Solange solche Standards aber noch die Ausnahme sind, bleibt das LkSG für viele KI‑Projekte eine unterschätzte Hürde. Es zwingt dazu, nicht nur die technische Leistungsfähigkeit eines Modells zu bewerten, sondern auch dessen menschenrechtliche Herkunft. In einer Welt, in der „Ghost Work“ oft der unsichtbare Motor moderner KI ist, ist das keine rein akademische Frage, sondern eine ganz konkrete Compliance‑Baustelle – und für manche Unternehmen ein triftiger Grund, bestimmte Modelle lieber nicht zu nutzen. Dabei sollte die Frage bleiben, ob angesichts dieses durch Ausbeutung verursachten Leids nicht generelle ethische Erwägungen schon reichen sollten, um nach Alternativen zu suchen. Letztlich betreiben wir bei KI-Modellen die gleiche Heuchelei wie beim Klimaschutz, indem wir das, was uns nicht gefällt, einfach dahin auslagern, wo wir es nicht sehen.

Fachanwalt für Strafrecht & IT-Recht bei Anwaltskanzlei Ferner Alsdorf
Rechtsanwalt Jens Ferner ist ein renommierter Strafverteidiger im gesamten Strafrecht samt Managerhaftung (insbesondere bei Wirtschaftskriminalität wie Geldwäsche, Betrug, Untreue bis zu Cybercrime – aber auch im Jugendstrafrecht und Sexualstrafrecht) sowie Spezialist im IT-Recht (Softwarerecht und KI, IT-Vertragsrecht und Compliance). Als Fachanwalt für Strafrecht + IT-Recht verteidigt er Mandanten in anspruchsvollen Strafverfahren und berät in komplexen Softwareprojekten. Er ist Lehrbeauftragter für Wirtschaftsstrafrecht und IT-Compliance (FH Aachen) und publiziert fortlaufend.

Erreichbarkeit:Per Mail, Rückruf, Threema oder Whatsapp.

Unsere Anwaltskanzlei im Raum Aachen ist spezialisiert auf Strafverteidigung, Cybercrime, Wirtschaftsstrafrecht samt Steuerstrafrecht sowie IT-Recht.
Rechtsanwalt Jens Ferner
Rechtsanwalt Jens Ferner

Von Rechtsanwalt Jens Ferner

Rechtsanwalt Jens Ferner ist ein renommierter Strafverteidiger im gesamten Strafrecht samt Managerhaftung (insbesondere bei Wirtschaftskriminalität wie Geldwäsche, Betrug, Untreue bis zu Cybercrime – aber auch im Jugendstrafrecht und Sexualstrafrecht) sowie Spezialist im IT-Recht (Softwarerecht und KI, IT-Vertragsrecht und Compliance). Als Fachanwalt für Strafrecht + IT-Recht verteidigt er Mandanten in anspruchsvollen Strafverfahren und berät in komplexen Softwareprojekten. Er ist Lehrbeauftragter für Wirtschaftsstrafrecht und IT-Compliance (FH Aachen) und publiziert fortlaufend.

Erreichbarkeit:Per Mail, Rückruf, Threema oder Whatsapp.

Unsere Anwaltskanzlei im Raum Aachen ist spezialisiert auf Strafverteidigung, Cybercrime, Wirtschaftsstrafrecht samt Steuerstrafrecht sowie IT-Recht.