Die ethische Gretchenfrage in einem KI-Alltag

Würden Sie Ihr 5jähriges Kind alleine Brötchen holen schicken? Wenn nicht, dann haben Sie nicht an die Konsequenzen der KI gedacht. Lassen Sie mich Ihnen gerne auf die Sprünge helfen.

Auf zum Bäcker

Stellen Sie sich vor, Sie wohnen auf der einen Seite der Schnellstrasse. Ihr bevorzugter Bäcker ist auf der anderen Seite der Schnellstrasse, die zu Fuss überquert werden kann. Nun ist Sonntag, Sie liegen gemütlich im Bett und möchten eines der Kinder zum Bäcker schicken, die 5 Jahre, 16 Jahre und 22 Jahre alt sind. Auf der Schnellstrasse fahren nur noch autonom gesteuerte Autos, versehen mit einer moralischen KI, die in Notfällen „richtige“ Entscheidungen trifft um möglichst wenig Schaden und möglichst ethische Ergebnisse zu erzeugen. Wen würden Sie Brötchen holen schicken.

Gut, das 22jährige Kind war offensichtlich zu Faul endlich auszuziehen und einen eigenen Haushalt zu begründen – es wird wohl auch keine Brötchen holen, also wird es kaum in die engere Auswahl kommen. Und doch kommen Sie nicht auf das 5jährige Kind? Dann verfolgen Sie nicht die ethischen Diskussionen, Sie sollten es dringend losschicken während kein anderer das Haus verlässt.

Lassen Sie es mich erklären.

Menschen vor Züge schubsen

Das liebste Gedankenexperiment, so scheint mir, in der modernen westlichen Welt bei der Erörtung moralischer Dilemmata ist inzwischen das „Trolley-Problem“ geworden – über populäre Wissenschaftszeitungen bis Richard David Precht, ständig begegnet es mir. Nun auch auf Heise, was zugegeben Anlass für diesen Beitrag war.

In aller Kürze geht es in diversen Abwandlungen am Ende darum, dass man als Aussenstehender durch die Entscheidung einen einzelnen zu töten eine Mehrzahl anderer Menschen vor dem Tod retten kann. Mal muss man den einen proaktiv Töten (etwa von einer Brücke vor einen rollenden Waggon schubsen), mal aktiv durch eine vorgelagerte Handlung indem man eine Weiche stellt. Der Gedanke ist dabei, dass man am Ende durch das „notwendige Übel“ des Todes eines Einzelnen eine Mehrzahl anderer retten kann in einer Situation, die nicht durch andere verschuldet wurde.

In einer sehr lesenswerten Veröffentlichung – die bei Heise inhaltlich auf Deutsch zusammengefasst ist – geht es nun darum, dass offensichtlich regional – und somit wohl sozial/kulturell bedingt – ganz unterschiedliche Zustimmungswerte zu den einzelnen Szenarien zu erzielen sind. Darüber hinaus kann man Mutmaßungen anstellen wo dies herkommt, für mich ist dies an dieser Stelle nicht relevant, wichtig ist die Variabilität moralischer Ansichten im globalen Kontext. Wichtig ist mir dies nun vor einem anderen Gesichtspunkt, den Heise gut pointiert und so zusammenfasst:

Geht es nach der hiesigen Ethikkommission für automatisiertes Fahren, sind schwere moralische Dilemmata wie der Weichenstellerfall „nicht ethisch zweifelsfrei programmierbar“ und so maschinell auch nicht zu lösen.

Quelle: https://www.heise.de/newsticker/meldung/Trolley-Problem-und-Maschinen-Ethik-82-Prozent-der-Deutschen-wuerden-einzelnen-Menschen-opfern-4643841.html, am Ende des Artikels

Offenkundig gibt es bei dieser Frage ja bereits keine global einheitliche Linie – wie soll denn ein Computer, eine KI-Software, nun eine „Lösung“ (in dem Zusammenhang in Unwort, man mag lieber von einem „Ergebnis“ sprechen) finden, die global Akzeptiert wird? Selbst wenn es eine objektiv „richtige“ Ansicht gäbe, wäre sie ja offenkundig nicht vermittelbar.

Kleinste gemeinsame Nenner suchen

Solange wir „Lösungen“ suchen und versuchen, das durch KI zu imitieren, was in Befragungen Menschen weltweit intuitiv als Antwort angeben, kommt kein Konsens sondern nur kleinste gemeinsame Nenner heraus. So wird man dann feststellen, dass grundsätzlich – und auch hier wieder mit Ausnahmen – zumindest die Aussagen möglich sind,  dass man bei unvermeidbaren Unfällen eher Kinder und nicht Ältere verschonen sollte. Und dass man Menschen den Tieren vorziehen sollte.

Doch stellen Sie sich nun einen Alltag vor, in dem bei einem Unglücksfall ein von einer KI gesteuertes Auto sich im Zweifelsfall immer für die Rettung von Kindern und Gruppen entscheidet – wie beruhigt gehen Sie als Rentner dann noch über die Strasse? Denn während weiterhin das Eintreten eines Unfalls, wie heute, nicht vorhersagbar und ungewiss ist, so steht in dieser Zukunft fest, dass im Fall des Unfalls dann zumindest der ältere mit viel höherer Sicherheit nicht nur stirbt, sondern sogar bewusst ausgewählt wird.

Und Sie wundern sich, warum man 5jährige Brötchen holen schicken soll? Die kommen in dieser Zukunft wenigstens lebend wieder zurück.


Diskriminierung durch KI

Wir stellen die falschen Fragen: Ein Dilemma ist nicht „lösbar“, das ist der Sinn des Dilemmas. Interessanterweise hat man es sich aber zur Aufgabe gemacht, nun doch unlösbare Situationen einer Lösung zuzuführen, die dann auch noch eine Software lösen soll – als würde ein Autofahrer in einem Adrenalin gesteuerten, hoch affektiven Moment persönlicher Überraschung rational überlegt entscheiden. Losgelöst von der Frage, ob das Gewichten von Menschenleben in Form von Algorithmen bei auftretenden Unfällen überhaupt ein ethisch sinnvoller Ansatz ist.

Wichtiger ist, zu erkennen, dass vorprogrammierte Entscheidungen autonomer Systeme massive Auswirkungen auch auf diejenigen haben, die sie nicht benutzen, gerade im Verkehr: Wer Angst haben muss, bei einem Unfall bevorzugt als „Ausweichmöglichkeit“ ausgewählt zu werden, wird nicht mehr unbekümmert die Strasse queren. Wer Angst haben muss, als Fahrzeugführer in jedem Fall zu denen zu gehören, die die KI als am wenigsten schützenswert ansieht, wird sich nicht mehr hinters Steuer setzen.

Ich hatte es schon einmal gesagt: Der Mensch braucht ein Stück weit Ungewissheit und eine Hilfe kann darin liegen, Software in einer Dilemma-Situation zufällig agieren zu lassen – anstelle zu versuchen, ihr ein menschliches Empfinden vorzugeben, das nicht einmal Menschen selber haben. So bliebe der Unfall, was er letztlich ist: Ein umkalkulierbares, ungewisses Risiko. Jeder Versuch, ihn auch nur in Teilen berechenbar zu machen, lindert nicht Leid des Unfalls, sondern schafft nur weiteres Probleme, weil man dem Unfall seine Natur nimmt – und damit zwangsläufig die Gesellschaft in ihren Grundfesten ändert, die lernen muss, damit umzugehen, dass Maschinen in für uns alltäglichen Situationen plötzlich bewusste Entscheidungen gegen einzelne Menschen treffen.

Rechtsanwalt Jens Ferner (Fachanwalt für IT- & Strafrecht)
Benutzerbild von Rechtsanwalt Jens Ferner (Fachanwalt für IT- & Strafrecht)

Von Rechtsanwalt Jens Ferner (Fachanwalt für IT- & Strafrecht)

Ich bin Fachanwalt für Strafrecht + Fachanwalt für IT-Recht und widme mich beruflich ganz der Tätigkeit als Strafverteidiger und dem IT-Recht. Vor meinem Leben als Anwalt war ich Softwareentwickler. Ich bin Autor sowohl in einem renommierten StPO-Kommentar als auch in Fachzeitschriften.

Unsere Kanzlei ist spezialisiert auf Starke Strafverteidigung, seriöses Wirtschaftsstrafrecht, Arbeitsrecht und IT-Recht / Technologierecht. Beachten Sie unsere Tätigkeit im Steuerstrafrecht, digitaler gewerblicher Rechtsschutz, IT-Sicherheitsrecht sowie Softwarerecht.