AI dependencies

AI-Abhängigkeit: Warum AI das neue Öl ist

von

in
Ich hab mir diese Woche eine einfache Frage gestellt: Auf welche AI-Tools könnte ich morgen verzichten? Nicht nächstes Jahr. Morgen?

Ich bin die Liste durchgegangen. Blogtexte konzipieren – mit Claude. Recherchen prüfen – mit Claude. Dokumente auf Konsistenz prüfen – mit Claude. Präsentationen – mit Claude. Bilder und Grafiken erstellen – mit Midjourney. Vor zwei Jahren hab ich all das von Hand gemacht. Es hat zwar etwas länger gedauert, aber es ging. Heute fühlt sich der Gedanke, ohne AI zu arbeiten, an wie ein Rückschritt. Wie jemand, der auf die Autobahn verzichtet und täglich wieder Landstraße fährt.

Und das ist der Punkt: Niemand hat mich dazu gezwungen. Kein Gesetz, kein Arbeitgeber, keine Behörde. Ich hab mich freiwillig angemeldet, freiwillig prompten gelernt, freiwillig meine eigenen Workflows umgebaut. Die Frage ist nur, ob „freiwillig“ das richtige Wort bleibt, wenn man zwei Jahre später nicht mehr zurückkommt, ohne Produktivität einzubüßen.

ChatGPT hat 100 Millionen monatlich aktive Nutzer in knapp zwei Monaten erreicht. Kein Konsumprodukt in der Geschichte des Internets wurde schneller angenommen. TikTok brauchte neun Monate, Instagram zweieinhalb Jahre. Aber die Geschwindigkeit ist nicht die Geschichte. Die Geschichte ist, was danach passiert: Aus dem Tool wird eine Gewohnheit. Aus der Gewohnheit wird ein Workflow. Und aus dem Workflow wird eine Abhängigkeit, die man erst bemerkt, wenn man versucht, sie abzustellen. Stell dir vor, OpenAI, Anthropic und Google ziehen morgen den Stecker. Dein Arbeitstag wäre ein anderer.

Genau hier beginnt die AI-Abhängigkeit. Nicht mit einem Zwang, sondern mit einem Angebot, das so gut ist, dass man es irgendwann nicht mehr ausschlagen kann.

Kate Crawford hat in „Atlas of AI“ das Wort „Empire“ für Tech-Konzerne verwendet. Die TIME-Recherche von Billy Perrigo über kenianische Clickworker, die für unter 2 Dollar pro Stunde ChatGPT-Inhalte moderierten, zeigt eine reale Kosten-Nutzen-Asymmetrie. Rechenzentren Skandinavien, Datenarbeit in Kenia, Gewinne in San Francisco.

Aber die Empire-Metapher hat einen blinden Fleck, der mich stört. Sie macht uns zu Opfern. Kolonisierte Völker hatten keine Wahl. Ich schon. Du auch. Jedenfalls am Anfang. Und genau diesen Unterschied dürfen wir nicht ignorieren. Wir sind keine Kolonisierten. Wir sind Mittäter an unserer eigenen Abhängigkeit. Jedes Mal, wenn ich Claude öffne, investiere ich in die Infrastruktur, von der ich abhängig werde. Die Kritik muss man wohl aushalten, wenn man ehrlich über AI-Abhängigkeit reden will.

In den 1920er Jahren war billige Energie ein riesiger Fortschritt. Niemand wurde gezwungen, ein Auto zu kaufen. Aber innerhalb weniger Jahrzehnte war alles – Städtebau, Lieferketten, Heizsysteme, Pendlerstrecken – so tief um fossile Energie herum gebaut, dass ein Ausstieg mit jedem Jahrzehnt teurer wurde. Die freie Wahl von 1950 war die Systemabhängigkeit von 1980.

Bei AI passiert gerade dasselbe, nur viel schneller und leiser. Die Parallelen sind nicht nur oberflächlich, sie sind strukturell verankert.

Die Marktkonzentration.

In der Ölindustrie kontrollierten die „Seven Sisters“ – darunter Exxon, Shell und BP – von den 1940ern bis in die 1970er Jahre rund 85 % der weltweiten Ölproduktion. Bei AI ist die Konzentration heute vergleichbar: Laut der Menlo-Ventures-Studie „The State of Generative AI in the Enterprise“ kontrollieren drei Unternehmen – Anthropic (40 %), OpenAI (27 %) und Google (21 %) – zusammen 88 % der Enterprise-LLM-API-Nutzung (Die Stichprobe der Studie ist mit gut 150 Befragten nicht riesig, aber die Richtung deckt sich mit anderen Erhebungen). Meta, Cohere, Mistral und alle anderen teilen sich die restlichen 12 %. Das ist kein Zufall, denn die Fixkosten für das Training eines Foundation Models sind enorm hoch, die Grenzkosten für den Betrieb sehr niedrig. Das sind klassische Skaleneffekte, die natürliche Monopole begünstigen.

Was bedeutet das im Alltag? Es heißt: Du öffnest morgens deinen Laptop und dein Mail-Assistent, dein Kalender, deine Dokumentensuche, dein Code-Tool und dein Chat-Bot laufen über dieselben drei Unternehmen. Es ist einfach so passiert, weil jedes einzelne Tool für sich die beste Option war. Und jetzt steckst du drin.

Lock-in-Geschwindigkeit.

Ich beobachte das auch in meinem eigenen Arbeitsumfeld. Ein Kollege nutzt AI, weil es schneller geht. Sein Ergebnis setzt nun den Standard für die Abteilung. Wer ohne AI arbeitet, liefert langsamer. Das ist keine Absicht, es ist eine Kettenreaktion. Unternehmen, die Geschäftsprozesse auf proprietäre AI umstellen – also auf Systeme, deren Code und Modelle der Anbieter kontrolliert und die nicht frei austauschbar sind – erhöhen ihre Wechselkosten mit jedem Quartal. Was bei ERP-Systemen ein Jahrzehnt gedauert hat, passiert bei AI in zwei/drei Jahren.

Infrastruktur-Tiefe.

Microsoft baut Copilot in Office 365 Education ein. Stell dir vor, was das bedeutet: Eine Schule stellt um. 30 Lehrkräfte lernen, ihre Unterrichtsvorbereitung mit Copilot zu machen. Arbeitsblätter, Korrekturen, Elternbriefe – alles läuft über das Tool. Nach einem Jahr will die Schule den Anbieter wechseln, vielleicht weil die Lizenzen teurer werden. Was dann? Alle Vorlagen neu. Alle Workflows kaputt. Kein Budget dafür, kein Personal, keine Zeit. Also bleibt man einfach. Nicht weil man zufrieden ist, sondern weil Wechseln teurer ist als Bleiben. Das ist die Definition von Lock-in.

AI wird nicht als Werkzeug auf bestehende Strukturen gesetzt. Sie wird in die Basisinfrastruktur eingebaut. Und ab diesem Moment entscheidet nicht mehr der Nutzer über das Tool. Das Tool entscheidet über den Nutzer.

Warum ist AI-Abhängigkeit potenziell gefährlicher als Ölabhängigkeit?

Öl hat einen eingebauten Korrekturdruck. Es ist endlich und seine Verbrennung verändert das Klima. Irgendwann erzwingt die Physik ein Umsteuern, auch wenn es politisch quälend langsam passiert. Bei AI fehlt dieses Signal komplett. Kein physisches Limit, kein sichtbarer Kipppunkt. Nichts, das uns und die Regierungen zum Handeln zwingt.

Aber das fehlende Korrektursignal ist nur der Anfang.

Ölabhängigkeit hat Logistik ersetzt. AI ersetzt keine Logistik. AI ersetzt Denkschritte. Wenn ich heute ein Dokument von Claude gegenchecken lasse, dann lagere ich nicht den Transport eines Dokuments aus, sondern die kognitive Arbeit, die darin steckt. Und kognitive Abhängigkeit ist eine andere Kategorie als logistische. Wer verlernt, eine Strecke ohne Navi zu fahren, kommt trotzdem noch irgendwo an. Wer verlernt, ohne AI zu analysieren, zu formulieren oder zu prüfen, verliert Fähigkeiten, die man nicht einfach wieder einschalten kann.

Dazu kommt: Die Wechselkosten bei Öl sind brutal, aber wenigstens sichtbar. Eine Raffinerie kann man nicht übersehen. Eine Pipeline steht in der Landschaft. Wenn ein Land von einem Öllieferanten abhängt, sieht man das in Handelsbilanzen und Hafenstatistiken. Bei AI sind die Wechselkosten unsichtbar. Sie stecken in umtrainierten Teams, in proprietären Prompt-Bibliotheken, in Fine-Tuning-Daten, die nur mit einem bestimmten Modell funktionieren, in Workflows, die niemand dokumentiert hat, weil sie organisch gewachsen sind. Das macht es so schwer, den Moment zu erkennen, ab dem ein Wechsel zu teuer wird. Bei Öl hat man den Moment wenigstens gesehen, auch wenn man trotzdem nicht gehandelt hat.

Und dann die Geschwindigkeit. Die Abhängigkeit vom Öl hat sich über Jahrzehnte aufgebaut. Zwischen den ersten Automodellen und dem Moment, in dem die westliche Wirtschaft ohne Öl nicht mehr funktionierte, lagen gut 50 Jahre. Regulierer hatten Zeit — nicht genug, aber sie hatten welche. Bei AI passiert der gleiche Prozess in einem Bruchteil der Zeit. Unternehmen stellen heute Kernprozesse um, während die EU-Übergangsfristen für den AI Act noch laufen. Die Regulierung kommt nicht zu spät. Sie kommt pünktlich zu einer Architektur, die schon steht.

Beim Öl hat uns die Physik irgendwann gezwungen, umzudenken. Bei AI gibt es keine Physik, die uns bremst. Und keinen Smog, der uns daran erinnert, dass wir ein Problem haben.

Meine Beobachtung: Zwischen 2023 und 2026 war AI ein Werkzeug, das man nutzen konnte. Oder eben nicht. Bis 2030 werden Unternehmen, Schulen und Behörden ihre Abläufe darauf aufgebaut haben. Und danach wird ein Wechsel so teuer, dass ihn kaum jemand stemmt. Wer schon mal erlebt hat, wie eine Firma ihr ERP-System austauscht – also die Software, über die Buchhaltung, Lager und Einkauf laufen – weiß, was das heißt: drei bis fünf Jahre Umbau, danach sitzt man mindestens ein Jahrzehnt fest. Bei AI wird das nicht anders sein. Nur dass AI tiefer eingreift als jedes ERP-System. Ein ERP bildet Prozesse ab. AI ersetzt Denkschritte.

Politisch liegen die Hebel bei Interoperabilität – der Fähigkeit, Systeme verschiedener Anbieter miteinander arbeiten zu lassen – und Datenportabilität – dem Recht, eigene Daten von einem Anbieter zum anderen mitzunehmen. Der EU AI Act ist verabschiedet, aber die Übergangsfrist für zentrale Bestimmungen läuft bis 2026/2027. Das ist spät für ein Problem, das jetzt entsteht. Unternehmen und Verwaltungen treffen heute Infrastrukturentscheidungen, die zehn Jahre binden. Wenn die Regeln greifen, steht die Architektur längst. Das kennen wir aus der Energiepolitik: Regulierung wirkt erst, wenn der Umbau zu teuer geworden ist.

Und ja: Nicht jede Abhängigkeit ist per se schlecht. Strom und Internet sind Abhängigkeiten, die sich gelohnt haben. Aber Stromnetze und Internetinfrastruktur unterliegen in Europa öffentlicher Regulierung und Zugangspflichten. Bei AI-Infrastruktur fehlt das. Open-Source-Modelle können die Konzentration nicht allein aufbrechen, weil die Trainingskosten für Frontier-Modelle im dreistelligen Millionenbereich liegen. Wer glaubt, der Markt regelt das von selbst, sollte sich die Ölgeschichte nochmal ansehen.

AI-Abhängigkeit ist kein dystopisches Szenario. Sie ist ein Prozess, der jetzt läuft und an Fahrt aufnimmt. Das Muster kennen wir gut. Der gefährlichste Moment ist nicht der, in dem die Abhängigkeit da ist. Es ist der, in dem man sie noch verhindern könnte und ihn ungenutzt verstreichen lässt, weil alles so bequem funktioniert.

Was du heute tun kannst

Erstens: Installier eine lokale Alternative. Ich nutze Ollama mit Open-Source-Modellen auf meinem eigenen Rechner. Für meine tägliche Arbeit reichen sie zwar leider noch nicht, aber sie existieren und allein das verändert meine Position. Ich bin nicht mehr nur Kunde. Ich habe eine Tür, durch die ich gehen könnte.

Zweitens: Bevor du ein AI-Tool in deinen Workflow einbaust, stell eine einzige Frage: Kann ich in sechs Monaten wechseln, ohne alles neu aufzubauen?

Drittens: Mach Interoperabilität zum Auswahlkriterium. Nicht Geschwindigkeit, nicht den Preis, nicht die schickste Oberfläche. Kann das System mit anderen reden? Kann ich meine Daten mitnehmen?

Ich hab diesen Beitrag mit der Untestützung von Claude geschrieben. Die Recherche gegengeprüft, die Struktur durchgesprochen, die Quellen verifiziert. Und während ich das hier tippe, weiß ich, dass ich genau das tue, worüber ich gerade schreibe: die nächste dampfende heiße Schicht Asphalt auf die Autobahn legen. Der Unterschied ist nur, dass ich es weiß. Und dass ich mich entschieden habe, trotzdem darüber zu reden, statt so zu tun, als wäre das Problem woanders.

Jede AI-Integration ohne Wechseloption ist eine Stimme für die Monopolisierung von morgen.

Quellen

  1. Krystal Hu – „ChatGPT sets record for fastest-growing user base – analyst note“, Reuters, 1. Februar 2023. Grundlage für die Nutzerzahlen (100 Mio. MAU in 2 Monaten), basierend auf UBS-Analyse und Similarweb-Daten. reuters.com

  2. Billy Perrigo – „Exclusive: OpenAI Used Kenyan Workers on Less Than $2 Per Hour to Make ChatGPT Less Toxic“, TIME, 18. Januar 2023. Primärquelle für die Arbeitsbedingungen kenianischer Clickworker und die Kosten-Nutzen-Asymmetrie im AI-Ökosystem. time.com

  3. Kate Crawford – „Atlas of AI: Power, Politics, and the Planetary Costs of Artificial Intelligence“, Yale University Press, April 2021. Ausgangspunkt für die Empire-Metapher, die im Beitrag hinterfragt wird.

  4. Menlo Ventures – „The State of Generative AI in the Enterprise“, Dezember 2025. Befragung von über 150 technischen Entscheidungsträgern in Unternehmen und Startups. Primärquelle für die Enterprise-LLM-Marktanteile (Anthropic 40 %, OpenAI 27 %, Google 21 %, zusammen 88 %). menlovc.com

  5. Jai Vipra, Anton Korinek – „Market Concentration Implications of Foundation Models“, Brookings Institution, 2024. Analyse der Skaleneffekte und der Tendenz zu natürlichem Monopol bei Foundation Models. brookings.edu

  6. Anthony Sampson – „The Seven Sisters: The Great Oil Companies and the World They Shaped“, Hodder & Stoughton, 1975. Standardwerk zur Marktkonzentration in der Ölindustrie.

  7. Carl Shapiro, Hal R. Varian – „Information Rules: A Strategic Guide to the Network Economy“, Harvard Business School Press, 1999. Theoretische Grundlage für Lock-in-Effekte und Wechselkosten, auf die der Beitrag sich bezieht.

  8. EU AI Act – Verordnung (EU) 2024/1689, veröffentlicht im Amtsblatt der Europäischen Union am 12. Juli 2024. EUR-Lex

Kommentare

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert