Kategorien
IT-Recht & Technologierecht

EU reguliert Einsatz künstlicher Intelligenz

Anwaltskanzlei Ferner Alsdorf: 02404 92100

Die EU möchte Entwicklung und Einsatz künstlicher Intelligenz regulieren. Hierzu liegt inzwischen ein Vorschlag für eine Verordnung über ein europäisches Konzept für Künstliche Intelligenz vor, wobei aus meiner Sicht zuvorderst besonders spannend die Frage sein dürfte, was man überhaupt unter künstlicher Intelligenz verstehen möchte.

Im Übrigen ist es noch recht früh für eine umfassende Übersicht. Wichtig ist: Es soll einen Katalog absolut verbotener Einsatz-Szenarien von KI geben, es soll eine „High-Risk“-KI geben, für die besondere Vorgaben gelten; darüber hinaus gibt es Transparenzpflichten bei eingesetzter KI.

Hinweis: Hier geht es um den Entwurf einer Verordnung zur Regulierung von KI. Dies ist nicht zu verwechseln mit dem zugleich laufenden Versuch der EU, zivilrechtliche Haftungsregelung für künstliche Intelligenz aufzustellen, dazu siehe beispielsweise den zwischenzeitlich beschlossenen Text hier.

Definition von KI

Der Versuch einer Definition der KI findet sich in Artikel 3 (1):

Original Wortlaut:
‘artificial intelligence system’ (AI system) means software that is developed with one or more of the techniques and approaches listed in Annex I and can, for a given set of human-defined objectives, generate outputs such as content, predictions, recommendations, or decisions influencing the environments they interact with;

Freie Übersetzung:
System mit künstlicher Intelligenz“ (KI-System): Software, die mit einer oder mehreren der in Anhang I aufgeführten Techniken und Ansätzen entwickelt wurde und für eine gegebene Menge von durch den Menschen definierten Zielen Ausgaben wie Inhalte, Vorhersagen, Empfehlungen oder Entscheidungen erzeugen kann, die die Umgebungen beeinflussen, mit denen sie interagieren;

Die Frage ist damit, was im Anhang (Annex) I hierzu geregelt ist und dort findet man dann etwas detaillierter:

Original Wortlaut:
(a) Machine learning approaches, including supervised, unsupervised and reinforcement learning, using a wide variety of methods including deep learning;
(b) Logic- and knowledge-based approaches, including knowledge representation, inductive (logic) programming, knowledge bases, inference and deductive engines, (symbolic) reasoning and expert systems;
(c) Statistical approaches, Bayesian estimation, search and optimization methods.

Freie Übersetzung:
a) Ansätze des maschinellen Lernens, einschließlich überwachtem, unüberwachtem und verstärktem Lernen, unter Verwendung einer Vielzahl von Methoden, einschließlich Deep Learning;
b) Logik- und wissensbasierte Ansätze, einschließlich Wissensrepräsentation, induktive (logische) Programmierung, Wissensbasen, Inferenz- und Deduktionsmaschinen, (symbolisches) Schließen und Expertensysteme;
(c) Statistische Ansätze, Bayes’sche Schätzung, Such- und Optimierungsmethoden.

Man merkt schnell: Speziell Buchstabe B, aber insbesondere auch C, bedeuten eine massive Ausweitung des Begriffes der KI. Wer hier nur maschinelles Lernen vor Augen hat, wird bei solchen Definitionen zu kurz greifen. Tatsächlich dürfte jede komplexere Software, die Prognosen auf Basis statistischer Daten vornimmt oder bereits vorhandene Prozesse – auch ohne maschinelles Lernen – zu optimieren versucht, unter den Begriff der KI fallen.


Absolut verbotene Bereiche für KI

Es soll ausgesuchte (durchaus umfangreiche) Szenarien geben, in denen der Einsatz von KI verboten ist, daraus in aller Kürze:

  • unterschwellige Techniken außerhalb des Bewusstseins einer Person zur Verhaltensbeeinflussung einer Person dergestalt, dass körperlicher oder psychischer Schaden entsteht oder entstehen kann;
  • Ausnutzung der Schwächen einer bestimmten Personengruppe aufgrund ihres Alters oder einer körperlichen oder geistigen Behinderung zur Verhaltenssteuerung mit Potential dass körperliche oder psychische Schäden entsteht oder entstehen können;
  • Einsatz von KI durch Behörden oder in deren Auftrag zur Bewertung oder Einstufung der Vertrauenswürdigkeit natürlicher Personen über einen bestimmten Zeitraum auf der Grundlage ihres Sozialverhaltens oder bekannter oder vorhergesagter persönlicher oder Persönlichkeitsmerkmale, wobei die soziale Bewertung zu einem der folgenden Punkte oder zu beiden führt
    — nachteilige oder ungünstige Behandlung bestimmter natürlicher Personen oder ganzer Gruppen davon in sozialen Kontexten, die nichts mit den Kontexten zu tun haben, in denen die Daten ursprünglich erzeugt oder gesammelt wurden;
    — eine nachteilige oder ungünstige Behandlung bestimmter natürlicher Personen oder ganzer Gruppen von ihnen, die ungerechtfertigt ist oder in keinem Verhältnis zu ihrem sozialen Verhalten oder dessen Schwere steht;
  • Verwendung von „Echtzeit“-Fernerkennungssystemen zur biometrischen Identifizierung in öffentlich zugänglichen Räumen zum Zweck der Strafverfolgung, es sei denn, diese Verwendung ist für eines der folgenden Ziele unbedingt erforderlich: gezielte Suche nach bestimmten potenziellen Opfern von Straftaten, einschließlich vermisster Kinder; Verhinderung einer spezifischen, erheblichen und unmittelbaren Bedrohung des Lebens oder der physischen Sicherheit natürlicher Personen oder eines Terroranschlags; Aufdeckung, Lokalisierung, Identifizierung oder Verfolgung eines Täters oder Verdächtigen einer Straftat (mit Freiheitsstrafe von mindestens drei Jahren bedroht)

High-Risk-KI

Als „High-Risk“-KI mit besonderen (Melde-)Anforderungen und Compliance-Erwartungen gelten KI-Systeme mit diesen Faktoren:

  • das KI-System ist dazu bestimmt, als Sicherheitsbauteil eines Produkts verwendet zu werden, oder ist selbst ein Produkt, das unter die in Anhang II aufgeführten Harmonisierungsrechtsvorschriften der Union fällt;
  • das Produkt, dessen Sicherheitsbauteil das KI-System ist, oder das KI-System selbst als Produkt muss im Hinblick auf das Inverkehrbringen oder die Inbetriebnahme dieses Produkts einer Konformitätsbewertung durch einen Dritten gemäß den in Anhang II aufgeführten Harmonisierungsrechtsvorschriften der Union unterzogen werden;
  • wenn man unter eines der Systeme des Annex III fällt, hierzu gehören insbesondere Anwendungsbeispiele aus den Bereichen biometrische Systeme, Beschäftigung und Arbeitnehmermanagement, geplanter Einsatz im Bereich der Justiz und ausdrücklich im Bereich der Risikoeinschätzung und bei Polygraphen, bei Migration und Asyl.
  • Speziell im Arbeitsrecht wird als „High-Risk“ erfasst: KI-Systeme, die dazu bestimmt sind, für die Einstellung oder Auswahl natürlicher Personen verwendet zu werden, insbesondere für die Ausschreibung freier Stellen, die Sichtung oder Filterung von Bewerbungen, die Bewertung von Kandidaten im Rahmen von Vorstellungsgesprächen oder Tests; sowie eine KI, die dazu bestimmt ist, Entscheidungen über die Beförderung und Beendigung von arbeitsbezogenen Vertragsverhältnissen, die Aufgabenzuweisung sowie die Überwachung und Bewertung der Leistung und des Verhaltens von Personen in solchen Verhältnissen zu treffen.

Transparenzpflichten für bestimmte KI-Systeme

Wer eine KI anbietet, muss sicherstellen, dass KI-Systeme, die für die Interaktion mit natürlichen Personen bestimmt sind, so konzipiert und entwickelt werden, dass natürliche Personen darüber informiert werden, dass sie mit einem KI-System interagieren – es sei denn, dies ergibt sich aus den Umständen und dem Kontext der Nutzung.

Diese Verpflichtung gilt allerdings nicht für KI-Systeme, die gesetzlich zur Aufdeckung, Verhütung, Untersuchung und Verfolgung von Straftaten befugt sind! Hier wird also schon die Türe aufgelassen für verdeckt operierende KI im Internet. Weiterhin gilt:

  • Die Nutzer eines Emotionserkennungssystems oder eines Systems zur biometrischen Kategorisierung müssen die natürlichen Personen, die dem System ausgesetzt sind, über den Betrieb des Systems informieren;
  • Benutzer eines KI-Systems, das Bild-, Audio- oder Videoinhalte generiert oder manipuliert, die spürbar existierenden Personen, Objekten, Orten oder anderen Einheiten oder Ereignissen ähneln und einer Person fälschlicherweise als authentisch oder wahrheitsgemäß erscheinen würden („Deep Fake“), müssen offenlegen, dass der Inhalt künstlich erzeugt oder manipuliert wurde;

Fazit

Es kommt einiges auf uns zu, Softwareentwickler werden nicht umhin kommen, ihre KI-Entwicklungen ideal schon heute auf die Anforderungen auszurichten, die sicherlich übermorgen erst kommen werden. Insbesondere muss das Risiko gesehen werden, sehenden Auges etwas zu entwickeln, was heute noch zulässig ist, aber nach einem gewissen Zeitablauf zumindest erheblichen (kostenintensiven) Compliance-Maßnahmen und Meldepflichten unterliegt. Da es vorliegend um eine Verordnung geht, wird diese unmitelbar nach Verabschiedung in allen EU-Mitgliedsstaaten gelten, es wird also nicht noch die Umsetzung durch nationale Gesetzgeber abzuwarten sein.

Ich werde mich auch weiter der Thematik der KI-Regulierung in der EU widmen, hier ging es erst einmal nur um einen Ausgangsbeitrag, damit einzelne Aspekte vertieft werden können, sobald absehbar ist, dass die Verordnung konkretere Abstimmungen durchlaufen hat. Im Übrigen wird die Regulierung der Haftung von KI-Systemen durchaus kritische Fragen aufwerfen.
Lesenswert ist dazu auch ein Beitrag bei Spektrum der Wissenschaft!

Avatar of Rechtsanwalt Jens Ferner

Von Rechtsanwalt Jens Ferner

Rechtsanwalt Jens Ferner ist Strafverteidiger und Fachanwalt für IT-Recht in der Anwaltskanzlei Ferner Alsdorf. Unsere Rechtsanwälte sind täglich verfügbar und spezialisiert auf Strafrecht und IT-Recht. Zusätzlich sind wir tätig im Verkehrsrecht, Arbeitsrecht sowie im digitalen gewerblichen Rechtsschutz. Wir bieten einen Telegram Kanal sowie ein LinkedIN-Profil.

Dringend Rechtsanwalt gesucht? Anwalt-Direktruf bei Unfall, Anklage, Hausdurchsuchung oder Beschuldigtenvernehmung unter 02404 9599872