LLMs sind nicht die Technologie der Zukunft – sie sind das Benzin der digitalen Gegenwart

Seit dem Aufstieg der generativen KI-Modelle wie GPT-3 und GPT-4 wird oft suggeriert, dass wir es hier mit einer revolutionären, neuen Technologie zu tun haben. Doch was, wenn wir uns getäuscht haben? Was, wenn LLMs (Large Language Models) nicht die eigentliche Technologie sind, sondern lediglich eine Ressource – raffiniertes Produkt aus Daten, vergleichbar mit Benzin, das aus dem “Öl” der digitalen Welt gewonnen wird?

Eine solche Umdeutung kann tiefgreifende Folgen haben: wirtschaftlich, technologisch, regulatorisch und gesellschaftlich. Sie zwingt uns, die KI-Ökonomie neu zu denken – jenseits des Hypes. Ein Gedankenspiel.

LLMs als Ressource: Eine andere Perspektive

Die Metapher ist einfach, aber kraftvoll: Wenn Daten das neue Öl sind, dann sind LLMs das raffinierte Benzin. Nicht der Motor, nicht das Fahrzeug, nicht die Straße – sondern der hochveredelte Brennstoff, der Systeme antreiben kann. Aber nur, wenn diese Systeme überhaupt existieren.

Diese Sichtweise würde die bisherige Vorstellung von LLMs als autonome “KI” auf den Kopf stellen. Stattdessen rückt sie deren Austauschbarkeit, Standardisierbarkeit und Abhängigkeit von Kontext und Anwendung in den Mittelpunkt. Die eigentliche Technologie ist demnach nicht das Modell, sondern die Art und Weise, wie dieses Modell genutzt, integriert und kontrolliert wird.

Wirtschaftliche Auswirkungen: KI wird Infrastruktur, nicht Magie

Wenn LLMs Ressource statt Technologie sind, entsteht ein Markt, der stark an den Energiesektor erinnert:

  • Preise für Modellzugang und Inferenzleistung werden transparenter und volatiler.
  • Open-Source-Initiativen wie HuggingFace senken die Eintrittsbarrieren.
  • Der wahre Wettbewerb verlagert sich von der Modellentwicklung zur Dienstleistungsoptimierung und Nutzungsinfrastruktur.

Unternehmen müssen nicht mehr selbst trainieren, sondern geschickt einkaufen, kombinieren und effizient betreiben. Dadurch entstehen neue Berufsfelder: Modellbroker, LLM-Ops-Engineer, Ressourcenmanager für Sprachmodelle.

Digitalwirtschaft: Dienste statt Modelle

Digitale Dienstleistungen werden nicht mehr um die KI herum gebaut, sondern mit KI als eingebetteter Ressource. LLMs verschwinden aus dem Marketing und tauchen im Backend wieder auf. Das Modell selbst ist austauschbar, entscheidend sind:

  • Datenflüsse
  • Workflow-Integration
  • Governance und Vertrauen
  • Kostenkontrolle beim “Verbrauch” der LLMs

Das führt zu einem Preismodell, das nicht mehr auf Lizenzen basiert, sondern auf Tokens, Inferenzzeit oder Nutzungsvolumen. Ein Cloud-Paradigma, diesmal mit Text statt Speicher.

Chiphersteller wie NVIDIA: Vom Schaufelverleih zum Versorger

NVIDIA hat bislang davon profitiert, dass LLM-Training immense Rechenleistung erfordert. Doch wenn die Modelle zunehmend offen verfügbar sind und Inferenz ins Zentrum rückt, verlagert sich der Bedarf:

  • weniger Nachfrage nach H100-fähigen Superclustern,
  • mehr Nachfrage nach stromsparenden, latenzarmen Inferenz-Chips,
  • Nachfrage nach Edge-Lösungen für spezialisierte Einsätze.

Hier könnte ein neuer Wettbewerb entstehen, in dem nicht mehr Rechenleistung, sondern Energieeffizienz und Integration die Währung sind.

DeepSeek & HuggingFace: Ein Beweis für Ressourcendenken … ?

Die Entwicklungen rund um das chinesische Unternehmen DeepSeek sind möglicherweise ein erster Wendepunkt: GPT-4-ähnliche Modelle werden dort angeblich mit Bruchteilen der Kosten reproduziert (auch wenn die Kosten am Ende wohl höher waren als zuerst suggeriert). HuggingFace bietet Zugang zu Hunderten Modellen für jedermann. Beides zeigt: Die “Technologie” ist kopierbar, reproduzierbar, vielfältig nutzbar – also: Ressource. Das LLM ist kein Artefakt der Singularität, sondern ein veredeltes Produkt. Es gewinnt seinen Wert nicht durch Existenz, sondern durch Einsatz. Es ist das Benzin, nicht der Motor.

Digitalisierung neu denken: Infrastruktur statt Intelligenz

Die Vorstellung, dass KI eine neue Form von Intelligenz sei, lenkt ab. In Wahrheit befinden wir uns mitten im Aufbau einer neuen Infrastruktur: LLMs als Stromnetz für sprachliche Automatisierung, Entscheidungsunterstützung und Informationsverarbeitung. Wer diese Infrastruktur gestaltet, betreibt und kontrolliert, bestimmt den digitalen Fortschritt.

Das ist die Aufgabe für Politik, Wirtschaft und Gesellschaft:

  • Wie sieht faire Versorgung mit LLMs aus?
  • Wer kontrolliert die Datenpipelines?
  • Welche Governance braucht eine Welt, in der Sprachmodelle Ressource sind?

Die Konsequenz dieser Perspektive ist nicht allein eine veränderte Bewertung gegenwärtiger Entwicklungen, sondern vor allem eine Verschiebung der strategischen Fragestellungen für die kommenden Jahre. Wer in IT und Management Verantwortung trägt, steht nicht mehr vor der Aufgabe, die nächste große Modellgeneration zu antizipieren – sondern vor der Notwendigkeit, operative und strukturelle Voraussetzungen für eine Welt zu schaffen, in der generative Sprachmodelle zur Grundversorgung gehören.

In dieser Welt ist der Wettbewerb nicht länger getrieben von Innovationsvorsprung im Modellkern, sondern von der Fähigkeit, Ressourcen effizient zu nutzen, Prozesse resilient zu gestalten und Systeme mit hohem Integrationsgrad bei gleichzeitiger Kontrollierbarkeit zu betreiben. Es geht weniger um das Training, sondern um das Kuratieren; weniger um disruptive Neuentwicklungen, sondern um strategische Operationalisierung; weniger um Zugriff auf Magie, sondern um die Bewältigung industrieller Realität.

Dies verlangt nicht weniger als eine Re-Architektur digitaler Organisationen. LLMs als Ressource zu denken heißt, ihre Bereitstellung zu planen wie eine kritische Infrastruktur: mit redundanten Versorgungswegen, mit Monitoring auf Betriebs- und Governance-Ebene, mit klaren ökonomischen und datenschutzrechtlichen Rahmenbedingungen. Es heißt auch, interdisziplinäre Kompetenz aufzubauen – nicht nur Prompt Engineering, sondern Prozessverständnis, juristische Sensibilität, Nachhaltigkeitsbewusstsein.

Vor allem aber fordert es ein neues strategisches Denken: Nicht der Ausbau von Modellkapazität ist entscheidend, sondern der Aufbau von institutionalisierter Mündigkeit im Umgang mit Sprachsystemen. Das bedeutet: kontrollierte Integration statt schneller Piloten, robuste Evaluation statt blindem Skalieren, sinnvolle Grenzen statt Allmachtsfantasien. Es bedeutet, KI nicht als Kraft zu bewundern, sondern als Ressource zu verwalten.

Wer also fragt, worauf man sich vorbereiten muss, bekommt keine technologische Roadmap. Sondern eine infrastrukturelle. Eine organisatorische. Eine gesellschaftliche. Es ist die Vorbereitung auf eine Zukunft, in der der wahre Fortschritt nicht mehr aus der Frage kommt, was Modelle können – sondern aus der Antwort auf die Frage, was wir als Gesellschaft mit ihnen tun.


Ausblick auf die Praxis

Berufe ersetzen … oder effektiver gestalten

Bislang geht es oft nur darum, welche Berufe sich ersetzen lassen – obige gedanken zeigen einen anderen Weg: Stellen Sie sich ein digitales Unternehmen vor, das regelmäßig mit Verträgen arbeitet – NDAs, Service Agreements, Lizenzvereinbarungen. In traditionellen Organisationen werden solche Dokumente manuell geprüft, oft von Juristen, was Zeit, Geld und Aufmerksamkeit kostet. Im Web3-Kontext, wo dezentrale Akteure koordiniert entscheiden und handeln, ist das noch schwieriger. Dort braucht es Mechanismen, die konsistent, nachvollziehbar und möglichst automatisiert funktionieren – ohne die Integrität der Entscheidungen zu kompromittieren.

Hier beginnt ein neues Zusammenspiel zwischen Large Language Models und : Das LLM übernimmt die Analyse. Es erkennt typische Vertragsmuster, prüft, ob bestimmte Standardklauseln enthalten sind, bewertet mögliche Risiken, vergleicht den Vertrag mit zuvor festgelegten Policy-Prinzipien der Organisation – etwa einer Satzung oder einem Governance-Manifest – und erstellt daraus eine strukturierte Bewertung. Nicht als juristisch bindende Auskunft, sondern als Entscheidungshilfe. Das Modell selbst ist dabei (jederzeit) austauschbar: es könnte ein spezialisiertes Open-Source-Modell sein, ein Mistral-Derivat, ein DeepSeek-Modell oder ein proprietäres System. Entscheidend ist: das LLM agiert hier nicht als intelligentes Subjekt, sondern als veredeltes Werkzeug – eine Ressource, die standardisiert eingesetzt wird, um strukturierte Sprachverarbeitung effizient durchzuführen.

Die Blockchain tritt nicht als technisches Accessoire auf, sondern als Vertrauensanker: In ihr wird dokumentiert, dass die Analyse tatsächlich durchgeführt wurde – mit einem spezifischen Modell, auf Basis eines bestimmten Prompts, zu einem bestimmten Zeitpunkt. Die Ergebnisse müssen nicht vollständig on-chain gespeichert werden, was wohl ineffizient und kostspielig wäre. Es reicht, einen Hash oder Fingerabdruck des Analyseprozesses zu sichern, vielleicht ergänzt um eine Referenz auf die Auswertung, die in einem dezentralen Speicher liegt. Damit wird nachvollziehbar, was analysiert wurde und ob es verändert wurde. Falls notwendig, könnte das Ergebnis sogar mit einem kryptografischen Beweis verknüpft werden – etwa durch einen Zero-Knowledge-Proof, der bestätigt, dass das Modell korrekt verwendet wurde, ohne den Input oder das Modell selbst offenlegen zu müssen.

Das Entscheidende daran ist: Das LLM ist kein exklusives Produkt mehr, sondern ein Betriebsmittel. Es ist kein KI-Guru, das magisch Verträge versteht, sondern ein digitales Gegenstück zu einem Prüfautomat. Es wird wie Strom oder Rechenzeit verwendet, ohne dass sein Inneres jedes Mal von Neuem gedeutet werden müsste. Was zählt, ist, dass es zuverlässig arbeitet, kontrollierbar ist – und dass sein Output in einen verlässlichen Prozess eingebettet ist.

Durch eine Ergänzung mit einer Blockchain wird das Konzept abgerundet: Diese schafft einen öffentlichen, verteilten, manipulationssicheren Nachweis, dass dieser Prozess stattgefunden hat – und stellt damit Vertrauen ohne zentrale Instanz her. Wenn LLMs als Dienstleistung „as-a-Service“ in verschiedensten Kontexten eingesetzt werden, wird das entscheidend. Denn wer garantiert, dass ein Vertrag von einem „guten“ Modell geprüft wurde, oder dass ein automatisiertes Urteil nicht manipuliert wurde? Ohne Blockchain müsste man entweder dem Betreiber vertrauen – oder jede Analyse manuell überprüfen. Mit Blockchain ist die Analyse nicht nur durchführbar, sondern nachvollziehbar verlässlich.

Die Zukunft liegt also nicht im Bau immer größerer Modelle, sondern im Aufbau robuster Prozesse, die LLMs als Ressource intelligent einsetzen – und deren Vertrauenswürdigkeit durch technologische Infrastruktur wie Blockchain gestützt wird. Die künstliche Intelligenz liefert die Arbeit, die Blockchain sichert ihre Integrität. Beides zusammen ergibt ein System, das weit mehr ist als die Summe seiner Teile: eine digitale Institution, die mit Sprache operiert, ohne auf Menschen angewiesen zu sein – und dennoch deren Vertrauen verdient.

Die Zukunft ist nicht GPT-5. Die Zukunft ist das, was wir daraus machen.

LLMs sind nicht das Ziel, sondern der Treibstoff. Die wirkliche Innovation beginnt erst jetzt: bei der sinnvollen, verantwortungsvollen und nachhaltigen Nutzung dieser Ressource. Es ist an der Zeit, aufzuhören, über das “nächste große Modell” zu sprechen. Stattdessen sollten wir über Versorgungssicherheit, Energieeffizienz, Integration, , Nachhaltigkeit und gesellschaftliche Resilienz sprechen. Nicht der Motor zählt. Sondern, wohin wir fahren – und wer am Steuer sitzt.

Fachanwalt für Strafrecht & IT-Recht bei Anwaltskanzlei Ferner Alsdorf
Ich bin Fachanwalt für Strafrecht + Fachanwalt für IT-Recht und widme mich beruflich ganz der Tätigkeit als Strafverteidiger und dem IT-Recht mit Schwerpunkt Cybersecurity & Softwarerecht. Ich bin zertifizierter Experte für Krisenkommunikation & Cybersecurity; zudem Autor sowohl in Fachzeitschriften als auch in einem renommierten StPO-Kommentar zum IT-Strafprozessrecht und zur EU-Staatsanwaltschaft.Als Softwareentwickler bin ich in Python zertifiziert und habe IT-Handbücher geschrieben.

Erreichbarkeit: Per Mail, Rückruf, Threema oder Whatsapp.

Unsere Kanzlei ist spezialisiert auf Starke Strafverteidigung, seriöses Wirtschaftsstrafrecht und anspruchsvolles IT-Recht inkl. IT-Sicherheitsrecht - ergänzt um Arbeitsrecht mit Fokus auf Managerhaftung.
Rechtsanwalt Jens Ferner (Fachanwalt für IT- & Strafrecht - zertifizierter Experte in Krisenkommunikation & Cybersecurity)
Letzte Artikel von Rechtsanwalt Jens Ferner (Fachanwalt für IT- & Strafrecht - zertifizierter Experte in Krisenkommunikation & Cybersecurity) (Alle anzeigen)

Von Rechtsanwalt Jens Ferner (Fachanwalt für IT- & Strafrecht - zertifizierter Experte in Krisenkommunikation & Cybersecurity)

Ich bin Fachanwalt für Strafrecht + Fachanwalt für IT-Recht und widme mich beruflich ganz der Tätigkeit als Strafverteidiger und dem IT-Recht mit Schwerpunkt Cybersecurity & Softwarerecht. Ich bin zertifizierter Experte für Krisenkommunikation & Cybersecurity; zudem Autor sowohl in Fachzeitschriften als auch in einem renommierten StPO-Kommentar zum IT-Strafprozessrecht und zur EU-Staatsanwaltschaft.Als Softwareentwickler bin ich in Python zertifiziert und habe IT-Handbücher geschrieben.

Erreichbarkeit: Per Mail, Rückruf, Threema oder Whatsapp.

Unsere Kanzlei ist spezialisiert auf Starke Strafverteidigung, seriöses Wirtschaftsstrafrecht und anspruchsvolles IT-Recht inkl. IT-Sicherheitsrecht - ergänzt um Arbeitsrecht mit Fokus auf Managerhaftung.