DPAM Kommentar von Humberto Nardiello (Fondsmanager Fundamental Equities) vom 27.04.2026
Während die Märkte unter Druck standen, haben sich die fundamentalen Treiber der Künstlichen Intelligenz (KI) spürbar verbessert. Investieren ist letztlich ein Prozess bayesscher Aktualisierung: Jeder neue Datenpunkt verschiebt die Wahrscheinlichkeitsverteilung möglicher Ergebnisse. Im ersten Quartal sind mehrere stark aussagekräftige Signale aufgetreten, die die Wahrscheinlichkeit einer deutlich größeren KI‑Chance erheblich erhöht haben. Umfang und Konsistenz der jüngsten Fortschritte deuten darauf hin, dass wir noch ganz am Anfang stehen – und dass das endgültige Potenzial größer ist als bislang angenommen.
KI‑gestütztes Programmieren erreicht „Escape Velocity“
Die KI‑gestützte Softwareentwicklung hat eine entscheidende Schwelle überschritten. Werkzeuge wie Claude Code von Anthropic agieren inzwischen vollständig agentisch und sind in der Lage, produktionsreife Software mit minimalem menschlichem Eingriff zu entwickeln. Andrej Karpathy, Mitgründer von OpenAI und lange Zeit skeptisch gegenüber den Fähigkeiten von KI im Programmieren, stellte fest, dass sich das Verhältnis von „80 % manuell / 20 % Maschine“ zu „80 % Agent / 20 % manuelle Anpassungen“ verschoben habe – und dass er heute „überwiegend in natürlicher Sprache programmiert“.
Dies ist das erste Beispiel dafür, dass KI in großem Maßstab hochwertige kognitive Tätigkeiten übernimmt, die bislang klar dem Menschen vorbehalten waren. Die wirtschaftliche Bedeutung ist jedoch weniger als Verdrängung von Arbeit zu verstehen, sondern vielmehr als Produktivitätsschub. Historisch senken Produktivitätsschocks die Grenzkosten, erhöhen den Output und steigern reale Einkommen – was letztlich zu mehr wirtschaftlicher Aktivität und nicht zu weniger Beschäftigung führt. Erste Daten bestätigen diese Logik: Die Nachfrage nach Softwareentwicklern bleibt robust, obwohl KI‑Tools stark an Bedeutung gewinnen. Weltweit gibt es schätzungsweise 20 bis 30 Millionen Entwickler, mit Vollkosten von rund USD 100.000 pro Jahr – ein Arbeitskräftepotenzial von USD 2 bis 3 Billionen, das durch KI ergänzt werden kann.
Zudem existiert eine natürliche wirtschaftliche Grenze der vollständigen Automatisierung. Training und Inferenz erfordern enorme Halbleiter‑, Rechenzentrums‑ und Energiekapazitäten. Um große Teile der White‑Collar‑Arbeit vollständig zu ersetzen, wären Größenordnungen an Rechenleistung nötig, die heute schlicht nicht verfügbar sind. Mit zunehmender Automatisierung steigt die Nachfrage nach Rechenleistung – und damit deren Grenzkosten. Übersteigen diese die Kosten menschlicher Arbeit, findet keine Substitution statt. Rechenleistung wird damit zur zentralen Begrenzung, die Tempo und Ausmaß der Automatisierung bestimmt.
Der Aufstieg der Agenten
Das Aufkommen von KI‑Agenten, etwa am Beispiel von OpenClaw, markiert einen weiteren Wendepunkt. Im Gegensatz zu Chat‑Interfaces, die auf Anfrage reagieren, führen Agenten Aufgaben kontinuierlich aus – etwa das Schreiben von Code, die Steuerung von Workflows oder die Interaktion mit APIs. KI entwickelt sich damit vom rein kognitiven Werkzeug zu einer Ausführungsschicht, die tief in wirtschaftliche Prozesse eingebettet ist.
Die Folge ist ein sprunghafter Anstieg der Nachfrage nach Rechenleistung. Agenten arbeiten iterativ und rekursiv: Sie planen, führen aus, überprüfen Ergebnisse und verfeinern sie über mehrere Schritte hinweg. Eine einzelne Aufgabe kann Dutzende von Modellaufrufen umfassen. Während Chat‑Anwendungen den Rechenverbrauch linear erhöht haben, steigern Agenten ihn exponentiell. Ebenso wichtig ist, dass Agenten die Zahl der „Nutzer“ von Software deutlich ausweiten. Wie Jensen Huang anmerkte, werden sowohl menschliche als auch agentische Nutzung zunehmen und damit die Nachfrage nach Tools, APIs und Rechenleistung effektiv vervielfachen. Die Nachfrage nach Rechenleistung ist nicht länger an die Anzahl der Nutzerlizenzen gebunden, sondern an die Zahl der parallel laufenden aktiven Prozesse.
Monetarisierung
Das Nutzungsmodell entwickelt sich in einer Weise weiter, die das Monetarisierungspotenzial erheblich steigert. Historisch wurde KI überwiegend über Pauschalabonnements („All‑you‑can‑eat“) verkauft. Dieses Modell verschiebt sich nun hin zu einer nutzungsbasierten Bepreisung – faktisch ein „Pay‑per‑use“-Ansatz. Dies ist eine entscheidende Veränderung. Sie ermöglicht eine Preisdifferenzierung nach Nutzungsintensität, Zahlungsbereitschaft und Sensitivität gegenüber Latenz. Power‑User, insbesondere solche, die Agenten kontinuierlich einsetzen, verbrauchen um Größenordnungen mehr Tokens und reagieren deutlich weniger preissensitiv.
Erste Indikationen zeigen bereits, dass Entwickler jährlich Zehntausende US‑Dollar für Tokens ausgeben. Gleichzeitig statten Unternehmen ihre Ingenieure mit jährlichen KI‑Token‑Budgets aus, die rund 50 % des Grundgehalts entsprechen – sowohl zur Steigerung der Produktivität als auch als Instrument im Wettbewerb um Talente.
Diese Verschiebung hat zwei wesentliche Implikationen. Erstens erweitert sie das Umsatzpotenzial für Modellanbieter deutlich, da die Preisbildung nun mit dem geschaffenen Mehrwert skaliert und nicht mehr an die Anzahl der Nutzerlizenzen gebunden ist. Zweitens adressiert sie die häufig von Skeptikern vorgebrachte Sorge einer „zirkulären Finanzierung“. Wenn Nutzung gemessen wird und die Nachfrage elastisch auf Produktivitätsgewinne reagiert, ist das Umsatzwachstum nicht künstlich, sondern direkt an realwirtschaftliche Wertschöpfung gekoppelt. Das Ergebnis ist ein klarerer und nachhaltigerer Monetarisierungskreislauf.
Disaggregation der Inferenz verbessert die Wirtschaftlichkeit und verlängert die Lebensdauer von Assets
Auf Infrastrukturebene vollzieht sich ein weniger beachteter, aber ebenso wichtiger Wandel. Die Inferenz wird zunehmend in zwei Phasen aufgeteilt: Prefill und Decode. Prefill – das Verstehen des Prompts und seines kontextuellen Umfelds – ist rechenintensiv, während Decode – die Generierung von Tokens – stark von Speicherbandbreite abhängt und besonders latenzsensitiv ist. Diese Trennung ermöglicht eine effizientere Optimierung von Workloads über heterogene Rechenressourcen hinweg. Ältere GPUs können für Prefill‑Aufgaben weiterverwendet werden, während neuere oder spezialisierte Systeme das Decode übernehmen.
Die Folge ist eine deutliche Verlängerung der wirtschaftlichen Nutzungsdauer von GPUs. Anstatt nach vier bis fünf Jahren obsolet zu werden, könnten sie ökonomisch betrachtet nahezu ein Jahrzehnt produktiv bleiben. Daraus ergeben sich zwei unmittelbare finanzielle Effekte: eine geringere Abschreibungsbelastung und eine reduzierte Kapitalintensität pro Output‑Einheit. Für Hyperscaler bedeutet dies langfristig höhere Renditen auf das eingesetzte Kapital – insbesondere, da sich die Infrastruktur zunehmend von der Trainingsphase, die keine direkten Umsätze generiert, hin zur umsatzbringenden Inferenzphase verschiebt. Insgesamt wird das System genau in dem Moment effizienter, in dem die Nachfrage stark zunimmt.
Übergeordnet betrachtet geht es bei KI immer stärker um die Umwandlung von Energie in ökonomisch wertvolle Tokens. Effizienzgewinne – sowohl auf Hardware‑ als auch auf algorithmischer Ebene – erweitern das effektive Angebot, selbst während sich die Nachfrage weiter beschleunigt.
Frontier‑Modelle beweisen Monetarisierung in bislang unerreichtem Umfang und mit außergewöhnlicher Effizienz
Anthropic meldete zum 7. April eine annualisierte Umsatzrate von USD 30 Milliarden, gegenüber USD 9 Milliarden nur drei Monate zuvor – ein Zuwachs von USD 21 Milliarden an ARR in einem einzigen Quartal.
OpenAI weist eine ähnlich starke Dynamik auf und wuchs von rund USD 20 Milliarden ARR Ende 2025 auf über USD 25 Milliarden bis Anfang März. Zur Einordnung: Allein die quartalsweise ARR‑Ausweitung von Anthropic übertrifft das kombinierte ARR‑Wachstum der zehn größten Softwareunternehmen – Microsoft ausgenommen – im selben Zeitraum.
Ebenso bemerkenswert ist die operative Effizienz dieser Unternehmen. Sowohl Anthropic als auch OpenAI beschäftigen jeweils rund 3.000 Mitarbeitende, während Alphabet Inc. etwa 30.000 Mitarbeitende benötigte, um eine vergleichbare Umsatzgröße zu erreichen. Es handelt sich dabei nicht nur um schnell wachsende Unternehmen, sondern um ein grundlegend neues Operating Model: softwareartige Skalierbarkeit kombiniert mit infrastrukturnaher Monetarisierung, was zu einer bislang beispiellosen Umsatzintensität pro Mitarbeitenden führt.
Dies ist der bislang deutlichste Beleg dafür, dass Large Language Models im großen Maßstab monetarisierungsfähig sind. Entscheidend ist, dass dieses Wachstum zeitlich mit dem oben beschriebenen Übergang zu nutzungsbasierter Bepreisung zusammenfällt. Mit der zunehmenden Verbreitung dieses Preismodells dürfte das Umsatzwachstum eng an den Token‑Verbrauch gekoppelt bleiben – getrieben durch agentische Workloads und die zunehmende Einführung von KI im Unternehmensumfeld.
Zugleich befinden wir uns nun klar in der Inferenzphase der KI. Während die Frühphase des Zyklus vom Training geprägt war – einer kapitalintensiven Phase mit zeitlich verzögerter Monetarisierung –, wird der Umsatz heute durch Inferenz generiert. Die ökonomischen Rahmenbedingungen verbessern sich dabei stetig, da Auslastung steigt und die Effizienz der Infrastruktur weiter zunimmt.
KI für die physische Welt
Eine weitere Entwicklung, die besondere Aufmerksamkeit verdient, ist die Ausweitung von KI über die digitale Domäne hinaus in die physische Welt. Der entscheidende Wandel liegt in der Konvergenz von drei Faktoren: grossskaligen Modellen, massiven Daten‑Flywheels und einer durchgängigen Full‑Stack‑Infrastruktur. In Bereichen wie dem autonomen Fahren entwickeln sich Systeme zunehmend von regelbasierten Verarbeitungsketten hin zu End‑to‑End‑Modellen, die komplette Szenen erfassen, Verhalten antizipieren und Wahrnehmung direkt in Handlung übersetzen.
Diese Entwicklung wird zunehmend auch im realen Einsatz sichtbar. Waymo konnte die Zahl der wöchentlichen bezahlten Fahrten in weniger als zwei Jahren um etwa das Zehnfache steigern – von rund 50.000 im Jahr 2024 auf heute etwa 500.000, mit einem Ziel von rund 1 Million Fahrten bis Jahresende.
Dies entspricht einem „ChatGPT‑Moment“ für die physische Welt. Modelle erkennen nicht länger nur Objekte, sondern sind in der Lage, über dynamische Umgebungen zu schlussfolgern. Die Tragweite dieser Entwicklung geht dabei weit über bessere humanoide Roboter oder autonome Fahrzeuge hinaus: Sie weist auf die Entstehung einer allgemeinen Intelligenzschicht für physische Systeme hin, die branchenübergreifend einsetzbar ist – von Logistik über industrielle Fertigung bis hin zu Mobilität.
Eine sehr steile S‑Kurve
In früheren Rechenzyklen ging der Aufbau der Infrastruktur der Anwendungsadoption voraus. Dieses Muster ist weiterhin zu beobachten – allerdings ist die Steigung der Kurve deutlich steiler als erwartet. Der Infrastrukturausbau verlief rasch, doch nun zeigt die Anwendungsebene, insbesondere im Bereich Enterprise‑KI, eine klare und abrupte Beschleunigung. Wir schätzen, dass der Markt für Unternehmens‑KI ein Volumen von USD 3 bis 5 Billionen erreichen könnte, während die aktuelle Marktdurchdringung voraussichtlich noch unter 10 % liegt. Der Adoptionspfad zeichnet sich zunehmend klar ab: von Chat‑Anwendungen über KI‑Lösungen, die direkt in Arbeitsabläufe integriert sind, hin zu aufgabenspezifischen Tools, gefolgt von vollständig autonomen Agenten und schließlich koordinierten Netzwerken von Agenten.
Entscheidend ist, dass makroökonomische Unsicherheit diesen Prozess eher beschleunigen als hemmen dürfte. In einem schwächeren wirtschaftlichen Umfeld verstärkt sich der Anreiz, Arbeitskosten zu senken und die Produktivität zu steigern. KI wird damit zu einem deflationären Instrument. Unternehmen unter Druck neigen dazu, neue Technologien schneller zu übernehmen. Genau dieses Verhalten war bereits 2008–2009 während der globalen Finanzkrise zu beobachten, als digitale Werbung zulasten traditioneller Medien stark an Bedeutung gewann. Gerade in schwierigen Phasen sind Unternehmen am ehesten bereit, die Trägheit bestehender Paradigmen zu überwinden. Erste Anzeichen dafür zeigen sich bereits in Einstellungsentwicklungen und Initiativen zur Kostenoptimierung.
Fazit
KI zählt weiterhin zu den überzeugendsten Investmentthemen unserer Zeit, da wir uns noch früh in einem Markt befinden, der sich gleichzeitig in mehrfacher Hinsicht dynamisch weiterentwickelt: Die Technologie verbessert fortlaufend ihre Leistungsfähigkeit, die Monetarisierung gewinnt an Tiefe, und der ökonomische Nutzen nimmt stetig zu. Die Nutzung wächst rapide, während führende KI‑Labore von pauschalen Abonnementmodellen zu nutzungsbasierter Bepreisung übergehen, die den tatsächlich geschaffenen Mehrwert besser abbildet. Parallel dazu verbessern sich die ökonomischen Rahmenbedingungen der Inferenz, je weiter der Technologie‑Stack ausreift. Zugleich ist KI längst nicht mehr nur eine reine Technologiestory. Sie entwickelt sich zunehmend zu einer Produktivitäts‑, Arbeitsmarkt‑ und Kapitalzyklen‑Story, bei der sich die Einführung von Chat‑Anwendungen über Coding‑Tools hin zu Agenten ausweitet, die reale Aufgaben autonom ausführen können. Diese Kombination aus stärkerer Nachfrage, verbesserter Monetarisierung, langlebigeren Compute‑Assets und einem klareren Pfad zu nachhaltigen Renditen ist außergewöhnlich attraktiv. Auch wenn viele transformative Technologien im Zeitverlauf tendenziell übergewichtet werden, erscheint KI gemessen an der Größenordnung der zugrunde liegenden Chance weiterhin unterdurchdrungen. Unserer Einschätzung nach handelt es sich um einen jener seltenen Zeitpunkte, in denen sowohl das fundamentale Wachstum als auch die Investmentargumentation gleichzeitig besonders stark ausgeprägt sind.