Im aktuellen Spiegel-Artikel „Microsoft: Wie der Tech-Konzern so mächtig wurde – und noch mächtiger wird“ wird die immense Macht und Dominanz von Microsoft in der modernen digitalen Welt und die weitreichende Abhängigkeit beleuchtet, die sowohl Unternehmen als auch Staaten von den Technologien des Tech-Giganten haben. Der Artikel zeigt auf, dass Microsoft, einst durch Windows und Office bekannt, heute mit seiner Cloud-Plattform und KI-Lösungen tief in vielen Lebensbereichen verankert ist – von Schulen über Behörden bis hin zur Landwirtschaft.
Abhängigkeit als Risiko
Ein zentraler Gedanke ist die zunehmende Abhängigkeit von Microsofts Technologien, die nicht nur die Effizienz steigern, sondern auch Risiken bergen. Ein Beispiel dafür ist der Ausfall im Juli 2022, bei dem weltweit Flughäfen und Krankenhäuser betroffen waren, weil Microsofts Systeme für Stunden ausgefallen sind. Dies verdeutlicht, wie gefährlich es sein kann, wenn eine solch zentrale Infrastruktur ausfällt.
Hinzu kommt die Kritik, dass Microsofts Monopolstellung eine „Lock-in“-Situation schafft. Viele Unternehmen und Regierungen, besonders in Deutschland, seien so sehr auf Microsofts Cloud- und KI-Dienste angewiesen, dass es für sie schwer ist, alternative Lösungen zu finden. Diese Abhängigkeit ist besonders problematisch, wenn es um Datenschutz und digitale Souveränität geht, da Microsoft nicht immer transparent mit sicherheitsrelevanten Vorfällen umgeht. Abschließend wird die Frage aufgeworfen, ob Microsofts Dominanz letztlich mehr Schaden als Nutzen bringt. Trotz der technologischen Vorteile scheint das Risiko, die Kontrolle über Daten und Infrastruktur zu verlieren, für viele beängstigend.
Tech-CEOs mit Demokratiedefizit
Das Manager Magazin warnt parallel in seinem Artikel „Die Brandstifter“ vor der politischen Entwicklung und den Machtbestrebungen einflussreicher US-Tech-Eliten wie Elon Musk, Peter Thiel, Marc Andreessen und Mark Zuckerberg. Diese Unternehmer nutzen laut Manager-Magazin ihre enormen Plattformen, um politische Prozesse zu beeinflussen und sich gegen staatliche Regulierungen zu wehren. Dabei greifen sie demokratische Institutionen frontal an, indem sie öffentlich gewählte Vertreter diffamieren oder sogar zur Gewalt aufrufen, wie es etwa Elon Musk tut.
Die größte Gefahr liegt in der Radikalisierung dieser Akteure. Insbesondere Musk und Thiel nutzen ihre Netzwerke und ihre Macht über soziale Medien, um Desinformationen zu verbreiten und radikale Positionen zu fördern. Musk geht sogar so weit, Richter und Politiker persönlich zu bedrohen, wie in Brasilien geschehen, als er versuchte, die dortige Justiz zu untergraben. Darüber hinaus unterstützen sie politische Figuren wie Donald Trump, die ihre Deregulierungsagenda vorantreiben und ihnen wirtschaftliche Vorteile verschaffen könnten.
Diese Macht wird vor allem durch die Abhängigkeit der Gesellschaft von den Tech-Plattformen verschärft. Die US-Tech-Elite kontrolliert zentrale Infrastrukturen, die das Rückgrat moderner Kommunikation und wirtschaftlicher Prozesse bilden. Diese Abhängigkeit führt zu einem Machtungleichgewicht, bei dem die Tech-Mogule den demokratischen Prozess beeinflussen können, da sie bestimmen, welche Informationen verbreitet oder unterdrückt werden. Im Falle einer weiteren politischen Machtverschiebung zugunsten dieser Tech-Elite könnte es zu einer starken Deregulierung kommen, die Innovation fördert, aber gleichzeitig gesellschaftliche Risiken wie unkontrollierte Künstliche Intelligenz und Desinformation birgt.
Spezialisierte KI für Europa?
Der Handelsblatt-Artikel „Künstliche Intelligenz: Welche KI für die Wirtschaft zählt“ beleuchtet, warum spezialisierte, kleinere KI-Modelle für Unternehmen oft effizienter und sinnvoller sind als große, generische Modelle wie GPT-4. Während die großen KI-Modelle auf breites Allgemeinwissen und universelle Problemlösung abzielen, benötigen Unternehmen oft präzise Lösungen für spezifische Aufgaben. Diese spezialisierten Modelle können gezielt für eine Branche oder Aufgabe trainiert werden und bieten dadurch eine höhere Genauigkeit und Leistung.
Ein zentrales Argument für lokal einsetzbare Nischenprodukte ist die Fokussierung auf spezifische Daten. Große Modelle werden mit Unmengen an allgemeinen Informationen trainiert, was ihre Leistung bei spezialisierten Aufgaben wie juristischen oder medizinischen Fragestellungen reduzieren kann. Unternehmen wie das Berliner Start-up Xayn setzen daher auf maßgeschneiderte KI-Modelle, die nur mit relevanten, hochwertigen Daten trainiert werden. Das Ergebnis sind kleinere, energieeffizientere und präzisere Modelle, die vor Ort genutzt werden können, ohne auf gigantische Cloud-Systeme angewiesen zu sein.
Jedenfalls bietet der Weg über spezialisierte KI-Lösungen für europäische Unternehmen eine Chance, sich unabhängig von den großen, generischen Systemen der US-Tech-Konzerne zu positionieren und den technologischen Rückstand aufzuholen.
Ein weiterer Vorteil ist die geringere Abhängigkeit von US-Tech-Giganten. Unternehmen in Europa haben die Chance, durch spezialisierte KI-Lösungen Wettbewerbsvorteile zu schaffen und gleichzeitig die digitale Souveränität zu stärken. Europa könnte hier aufholen, indem es sich auf spezifische Anwendungen konzentriert, die genau auf die Bedürfnisse der Industrie zugeschnitten sind. Lokale Lösungen ermöglichen eine höhere Kontrolle über Daten und Sicherheitsstandards, was in vielen hochsensiblen Branchen, etwa im Gesundheitswesen oder der Rechtsberatung, entscheidend ist.
Der Trend zeigt, dass spezialisierte KI-Modelle auch kosteneffizienter und nachhaltiger sein können. Durch kleinere Modelle sinkt der Energieverbrauch erheblich, und sie können direkt in den Produktionsprozessen vor Ort eingesetzt werden, wie etwa bei DeltiaAI, das KI-Modelle für industrielle Fertigungsoptimierung anbietet.
Rechtliche Fragen bei der Entwicklung von Nischen-KI
Unternehmen, die spezialisierte und selbst entwickelte KI-Lösungen einsetzen oder entwickeln, müssen sich mit einer Vielzahl rechtlicher Fragen auseinandersetzen, die sowohl durch den neuen AI Act als auch durch bestehende Datenschutz- und Haftungsvorschriften wie die DSGVO und den Cyber Resilience Act aufgeworfen werden. Das Besondere dabei ist übrigens, dass die meisten KI-Projekte wohl scheitern, weil man kein klar definiertes Aufgabengebiet für seine Lösung definiert hat.
Einhaltung des AI Act
Der seit August 2024 geltende AI Act der EU regelt umfassend den sicheren und vertrauenswürdigen Einsatz von KI. Unternehmen müssen:
- Risikobewertung durchführen: Bevor KI-Systeme entwickelt oder eingesetzt werden, muss eine Risikobewertung stattfinden, insbesondere für sogenannte Hochrisiko-Systeme (z.B. KI im medizinischen Bereich, Strafrecht, Verkehr). Diese Bewertung dient dazu, potenzielle Gefahren für Benutzer zu identifizieren und Maßnahmen zu entwickeln, die diese Risiken minimieren.
- Transparenzpflichten erfüllen: Besonders wichtig ist es, die Nutzer transparent zu informieren, insbesondere bei emotional erkennenden oder biometrischen Systemen. Die Funktionsweise der KI muss verständlich erklärt und dokumentiert werden.
- Dokumentationspflicht: Unternehmen müssen detaillierte Aufzeichnungen über die Entwicklung, das Training und den Einsatz ihrer KI-Systeme führen, um jederzeit die Einhaltung der Vorschriften nachweisen zu können.
- Konformitätsbewertung: Für Hochrisiko-KI-Systeme ist eine externe Konformitätsbewertung notwendig, bei der geprüft wird, ob alle rechtlichen Vorgaben erfüllt wurden.
Datenschutzkonformität nach DSGVO
Sobald KI personenbezogene Daten verarbeitet, greifen die strengen Vorschriften der Datenschutz-Grundverordnung (DSGVO). Unternehmen müssen:
- Zweckbindung und Datenminimierung: Daten dürfen nur für den klar definierten Zweck erhoben und verarbeitet werden. Eine übermäßige Datensammlung oder -verarbeitung ist zu vermeiden.
- Privacy-by-Design: Schon bei der Entwicklung der KI-Systeme muss der Datenschutz durch technische und organisatorische Maßnahmen eingebaut werden. Das bedeutet, dass Datenschutz als Grundprinzip in die Architektur der KI integriert wird.
- Datenschutz-Folgenabschätzung (DSFA): Wenn das KI-System ein hohes Risiko für die Rechte und Freiheiten der Betroffenen darstellt (z.B. bei der Verarbeitung sensibler Daten), muss eine DSFA durchgeführt werden.
Schutz des geistigen Eigentums
Es besteht rechtliche Unsicherheit, wie mit dem Output von KI-Systemen umzugehen ist, insbesondere wenn diese eigenständig Werke wie Texte oder Designs erstellen. Die zentrale Frage ist, wem die Rechte an diesen Ergebnissen zustehen, da die KI selbst nach geltendem Recht keine Urheberrechte besitzen kann. Hier müssen Unternehmen klären, ob sie die Rechte an diesen Inhalten für sich beanspruchen oder wie der Einsatz von KI in der Produktion rechtlich abgesichert wird.
Haftungsfragen
Ein drängendes Thema ist die Haftung bei Schäden durch KI-Systeme. Die EU-Kommission hat im September 2022 eine Richtlinie über die KI-Haftung vorgeschlagen, die klarstellen soll, wer für Schäden haftet: der Hersteller, der Betreiber oder der Nutzer. Besonders komplex ist dies bei autonomen Systemen, deren Fehlverhalten schwer auf menschliche Entscheidungen zurückzuführen ist. Unternehmen müssen sicherstellen, dass sie klare Verantwortlichkeiten festlegen, um Haftungsrisiken zu minimieren.
Cybersicherheit
Mit der Einführung des Cyber Resilience Act gibt es neue Anforderungen an die Cybersicherheit von Hochrisiko-KI-Systemen. Diese Vorgaben verlangen von Unternehmen, dass sie ihre KI-Lösungen vor Cyberangriffen und Datenmanipulationen schützen, insbesondere in sicherheitskritischen Bereichen wie der Gesundheitsbranche oder im Finanzsektor.
Zusammenfassung: Rechtliche Besonderheiten bei Software as a Service (SaaS) Verträgen, speziell KI as a Service (KIaaS)
SaaS ist ein Softwareverteilungsmodell, bei dem Anwendungen als Service über das Internet bereitgestellt werden. Nutzer abonnieren den Service statt eine Softwarelizenz zu kaufen.
Konformität von KI-Systemen
Der AI Act der EU verlangt für Hochrisiko-KI-Systeme das CE-Kennzeichen als Nachweis dafür, dass diese Systeme die regulatorischen Anforderungen erfüllen und sicher im europäischen Binnenmarkt verwendet werden dürfen. Das CE-Kennzeichen steht für die Einhaltung der grundlegenden Gesundheits- und Sicherheitsanforderungen. Wichtige Anforderungen an das CE-Kennzeichen für KI-Systeme sind dabei:
- Sichtbarkeit und Lesbarkeit: Das CE-Kennzeichen muss auf Hochrisiko-KI-Systemen gut sichtbar, lesbar und dauerhaft angebracht sein. Wenn dies auf dem System selbst nicht möglich ist, kann das Kennzeichen auf der Verpackung oder in den begleitenden Dokumenten angebracht werden.
- Digitale CE-Kennzeichnung: Für Hochrisiko-KI-Systeme, die ausschließlich digital angeboten werden, ist eine digitale CE-Kennzeichnung erforderlich. Diese kann über das Interface, von dem aus das System genutzt wird, oder über maschinenlesbare Codes zugänglich gemacht werden.
- Konformitätsbewertung: Vor dem Anbringen des CE-Kennzeichens müssen Hochrisiko-KI-Systeme eine Konformitätsbewertung durchlaufen, um sicherzustellen, dass sie den Anforderungen des AI Act entsprechen. Dabei wird entweder eine interne Kontrolle oder eine Bewertung durch eine benannte Stelle durchgeführt, je nach Art des KI-Systems.
- Identifikationsnummer der benannten Stelle: Wenn eine benannte Stelle an der Konformitätsbewertung beteiligt war, muss die Identifikationsnummer dieser Stelle neben dem CE-Kennzeichen erscheinen. Diese Nummer muss auch in jeglichen Werbematerialien aufgeführt werden, in denen erwähnt wird, dass das System die Anforderungen für das CE-Kennzeichen erfüllt.
Das CE-Kennzeichen zeigt somit an, dass das KI-System den hohen Sicherheits- und Transparenzanforderungen des AI Act entspricht und auf dem europäischen Markt frei zirkulieren darf.
Vertragliche Aspekte bei SaaS
SaaS-Verträge stellen für Anbieter und Nutzer eine Herausforderung dar. Klare Regelungen und sorgfältige Prüfung sind nötig. Die sich entwickelnde KI-Gesetzgebung wird die Gestaltung von SaaS-Verträgen weiter beeinflussen. Für Anbieter sind Datenschutz, Service Level Agreements (SLAs) sowie Haftung und Gewährleistung wichtige Punkte.
Kunden müssen die Anbieterkompetenz überprüfen, die Vertragsbedingungen verstehen und die Kontrolle über ihre Daten behalten. Besonderheiten bei KI als SaaS: KIaaS wirft spezifische rechtliche Fragen auf, insbesondere bezüglich:
- Transparenz und Nachvollziehbarkeit der Algorithmen: Entscheidungsprozesse müssen erklärbar sein.
- Datenqualität und -verzerrung: Fehlerhafte Daten können zu falschen KI-Entscheidungen führen.
- Rechtliche Verantwortlichkeit: Es ist oft unklar, wer für falsche KI-Entscheidungen haftet.
- Urheberrechtsfragen: Die Rechte an KI-generierten Inhalten sind eine rechtliche Grauzone.
- Einhaltung von Datenschutzbestimmungen wie der DSGVO ist essentiell.
Ausblick
Unternehmen, die spezialisierte KI-Lösungen entwickeln, stehen vor komplexen rechtlichen (und technischen) Herausforderungen, die über technische Exzellenz hinausgehen. Die Einhaltung des AI Acts, die Datenschutzkonformität, die Klärung von Haftungsfragen und der Schutz des geistigen Eigentums sind entscheidende Punkte, die beachtet werden müssen, um rechtliche Sicherheit zu gewährleisten. Eine frühzeitige rechtliche Beratung und sorgfältige Risikobewertungen sind daher unerlässlich, um die Chancen von KI zu nutzen und gleichzeitig rechtliche Risiken zu minimieren – das verursacht Kosten und kostet Zeit & Nerven. Aber: Wer mit seinem Unternehmen Abhängigkeiten vermeiden möchte, sollte hier planen und abwägen, ob der Aufwand nicht in Relation zu späteren Risiken steht.
- Kündigungsbutton: Anforderungen an die Gestaltung des Kündigungsprozesses bei online abgeschlossenen Verträgen - 13. Oktober 2024
- Schadensersatzanspruch gegen Arbeitnehmer nach Spoofing-Angriff? - 13. Oktober 2024
- Lizenzgebühren im 3D-Druck von Komponenten - 13. Oktober 2024