Foto von Taylor Vick auf Unsplash Source

Amazon wird 2026 insgesamt 200 Milliarden Dollar für Infrastruktur ausgeben. Google liegt mit 175 bis 185 Milliarden Dollar knapp dahinter. Meta hat 115 bis 135 Milliarden zugesagt. Microsoft steuert auf 120 Milliarden oder mehr zu. Zusammengenommen werfen vier Unternehmen rund 650 Milliarden Dollar auf KI-Infrastruktur. Das ist fast das Doppelte von 2025 und übersteigt das Bruttoinlandsprodukt der meisten Länder.

Für Unternehmen im DACH-Raum, die KI-Agenten aufbauen oder einsetzen, ist diese Investitionswelle das wichtigste makroökonomische Signal des Jahres 2026. Sie bestimmt, was Compute kostet, wo es verfügbar ist und welche Agentenarchitekturen im Produktionsbetrieb wirtschaftlich tragfähig werden.

Weiterlesen: Die Agentic-AI-Infrastrukturlücke: Warum Unternehmenssysteme nicht agentenbereit sind

Die Zahlen im Detail

Nicht jede Milliarde ist gleich. Jeder Hyperscaler verfolgt eine andere Strategie, und diese Unterschiede sind relevant, wenn man einen Cloud-Anbieter für KI-Workloads auswählt.

Amazon: 200 Milliarden und die Trainium-Wette

Amazons 200-Milliarden-Zahl hat selbst optimistische Analysten überrascht. Die Konsenserwartung lag bei rund 147 Milliarden. CEO Andy Jassy verteidigte den Plan mit dem Hinweis auf AWS’ annualisierte Umsatzrate von 142 Milliarden Dollar bei 24 Prozent Wachstum im Jahresvergleich, ein Dreijahreshoch. Sein Argument: Kapazität wird so schnell absorbiert, wie sie bereitgestellt wird.

Der Großteil fließt in sogenannte „AI Factories": Rechenzentren, die um Amazons hauseigene Trainium-Chips herum gebaut werden, statt ausschließlich auf Nvidia-GPUs zu setzen. Das ist ein strategischer Schritt, um die Abhängigkeit von Nvidia zu reduzieren und differenzierte Preise anzubieten. Für Unternehmenskunden bedeutet das: AWS dürfte Ende 2026 die aggressivsten Inferenz-Preise unter den Hyperscalern anbieten, allerdings nur für Workloads, die auf Trainium-Architektur optimiert sind.

Die Aktie fiel um 8 bis 10 Prozent nach der Ankündigung. Die Sorge der Wall Street gilt dem Amortisationszeitraum. Amazons Wette: KI-Workloads wachsen schnell genug, um die Kapazität innerhalb von 18 bis 36 Monaten zu füllen.

Google: 175 Milliarden und der TPU-Vorsprung

Alphabets Capex-Plan von 175 bis 185 Milliarden Dollar baut auf der bestehenden TPU-Infrastruktur (Tensor Processing Units) auf. Google entwickelt seit längerem eigene KI-Chips als jeder andere Hyperscaler. Google Clouds KI-Workload-Umsatz wuchs im vierten Quartal 2025 um 35 Prozent im Jahresvergleich und übertraf damit das Gesamtwachstum der Sparte.

Googles Alleinstellungsmerkmal ist die vertikale Integration. Wenn ein Kunde einen Gemini-basierten Agenten auf Google Cloud betreibt, läuft die Inferenz auf TPUs, die Google entworfen hat, in Rechenzentren, die Google gebaut hat, mit Software-Frameworks (JAX, TensorFlow), die Google pflegt. Diese Kontrolle über den gesamten Stack führt zu Effizienzvorteilen, die Wettbewerber schwer aufholen können.

Für Agentenentwickler wird Google Cloud bei inferenzintensiven Workloads zunehmend attraktiv. Die Investitionen in A2UI (Agent-to-User Interface) und das Agent Development Kit deuten darauf hin, dass Google sich als Standardplattform für produktive Agentenbereitstellung positioniert.

Meta: 135 Milliarden für Open-Source-Dominanz

Metas Capex-Spanne von 115 bis 135 Milliarden Dollar ist der überraschendste Posten. Meta verkauft keine Cloud-Dienste. Jeder Dollar fließt in interne KI-Infrastruktur für die App-Familie (Facebook, Instagram, WhatsApp, Threads) und für Training und Bereitstellung der Open-Source-Llama-Modelle.

Die strategische Logik: Wenn Llama zum Standard-Foundation-Model für KI-Agenten in Unternehmen wird, kontrolliert Meta das Ökosystem, ohne selbst Cloud betreiben zu müssen. Meta hat einen 10-Milliarden-Dollar-Cloud-Vertrag mit Google Cloud abgeschlossen und einen erweiterten Deal mit Nebius (aus Yandex ausgegliedert) im Wert von bis zu 27 Milliarden, was zeigt, dass selbst die eigene massive Infrastruktur nicht ausreicht.

Für Agentenentwickler in der DACH-Region ist Metas Investition eine Wette darauf, dass Open-Weight-Modelle den Inferenzmarkt gewinnen. Sollte Llama 4 oder 5 die Qualitätsschwelle für produktive Agenten-Workloads erreichen, könnten Unternehmen, die Agenten auf eigener Infrastruktur betreiben, die Hyperscaler-Preise komplett umgehen. Für deutsche Mittelständler mit Datenschutzbedenken ein besonders attraktives Szenario: Llama lokal betreiben, Daten bleiben im eigenen Rechenzentrum, DSGVO-Konformität inklusive.

Microsoft: 120 Milliarden und das OpenAI-Risiko

Microsofts Ausgaben sind komplexer einzuordnen. Das Geschäftsjahr läuft von Juli bis Juni, und Q2 GJ2026 (bis Dezember 2025) erreichte 37,5 Milliarden, annualisiert also 150 Milliarden. Analysten erwarten eine Abschwächung in der zweiten Jahreshälfte, sodass der Kalenderjahr-Wert bei etwa 120 Milliarden liegt.

Der entscheidende Kontext: Rund 45 Prozent von Azures Cloud-Backlog sind an die OpenAI-Partnerschaft gebunden. Microsoft meldete einen nicht erfüllten Azure-Backlog von 80 Milliarden Dollar, hauptsächlich wegen Energieengpässen, nicht wegen schwacher Nachfrage. Wenn Unternehmen GPT-4-basierte Agenten über Azure einsetzen, fließt dieser Umsatz direkt durch Microsofts KI-Infrastruktur. Das Risiko für Kunden: Lock-in. Wer seinen Agenten-Stack auf Azure OpenAI Service aufbaut, hat hohe Wechselkosten.

Weiterlesen: KI-Agenten-ROI: Was der Einsatz wirklich kostet

Warum Inferenz das Budget dominiert

Die strukturelle Geschichte hinter diesen Zahlen ist der Wandel von Training zu Inferenz. Ein Frontier-Modell zu trainieren ist teuer, passiert aber nur einmal (oder wenige Male). Dieses Modell im Produktionsbetrieb für Millionen Nutzer zu betreiben, stündlich, täglich, dort liegt der eigentliche Rechenaufwand.

Bis 2026 entfallen rund zwei Drittel des gesamten KI-Compute auf Inferenz. Für KI-Agenten ist das Verhältnis noch extremer. Eine einzelne Agenteninteraktion kann 5 bis 15 LLM-Aufrufe auslösen: Reasoning, Kontextabruf, Tool-Aufrufe, Validierung. Multipliziert mit tausenden gleichzeitigen Nutzern wächst die Compute-Rechnung schnell.

Genau deshalb investieren alle vier Hyperscaler in eigene Chips (Trainium, TPUs, MTIA) statt sich allein auf Nvidia-GPUs zu verlassen. Inferenz-optimierte Custom-Chips liefern 2- bis 3-fach bessere Performance pro Dollar als Allzweck-GPUs. Der Haken: Entwickler müssen ihren Code und ihre Frameworks anpassen, um davon zu profitieren.

Einige Großunternehmen berichten bereits von monatlichen KI-Compute-Rechnungen im zweistelligen Millionenbereich. Diese Rechnungen werden nur wachsen, wenn KI-Agenten von Pilotprojekten in Produktions-Workflows wandern.

Weiterlesen: KI-Agent-Rechenkosten: Warum 60 % des Budgets für nichts verbrannt werden

Was das für KI-Agenten in Unternehmen bedeutet

Drei konkrete Konsequenzen für Organisationen, die 2026 KI-Agenten aufbauen oder einsetzen.

Inferenzkosten werden sinken, mit Verzögerung

Massive Überkapazität ist das wahrscheinliche Ergebnis von 650 Milliarden Dollar gleichzeitiger Infrastrukturinvestition. Wenn all diese Kapazität in den nächsten 12 bis 24 Monaten online geht, wird das Angebot an KI-Compute die Nachfrage übersteigen.

Goldman Sachs prognostiziert, dass Inferenzkosten bis Ende 2027 um 40 bis 60 Prozent fallen könnten, wenn sich die Auslastung der Hyperscaler normalisiert. Für Agentenentwickler heißt das: Architekturen, die heute zu teuer sind (mehrstufige Reasoning-Ketten, RAG mit großen Context-Windows, Echtzeit-Agent-zu-Agent-Kommunikation), werden im Produktionsbetrieb wirtschaftlich tragfähig.

Der praktische Rat: Entwerfen Sie Ihre Agentenarchitekturen für die Compute-Kosten von 2027, nicht von 2026. Bauen Sie die Orchestrierungsschichten jetzt, auch wenn Sie sie noch nicht im vollen Umfang betreiben können.

Cloud-Provider-Lock-in ist ein reales Risiko

Jeder Hyperscaler baut einen vertikal integrierten Stack: eigene Chips, proprietäre Model-Serving-Frameworks und plattformspezifische Agenten-Toolkits (AWS Bedrock Agents, Google ADK, Azure AI Agent Service). Diese Stacks bieten echte Performance- und Kostenvorteile, schaffen aber auch Wechselkosten, die sich über die Zeit verstärken.

Wer Agenten auf AWS Bedrock mit Trainium-optimierter Inferenz baut und später zu Google Cloud migrieren will, muss die gesamte Serving-Infrastruktur neu schreiben. Wer auf Azure OpenAI Service setzt, ist eng an Microsofts Infrastruktur und OpenAIs Modell-Roadmap gekoppelt.

Die Gegenmaßnahme sind Multi-Cloud-Agentenarchitekturen mit Abstraktionsschichten wie MCP für Tool-Integration und A2A für Agentenkommunikation, die die Geschäftslogik portabel halten, auch wenn der zugrunde liegende Compute-Anbieter wechselt.

Die Umsatzfrage entscheidet über Nachhaltigkeit

Die Umsätze der reinen KI-Anbieter erzählen eine ernüchternde Geschichte. OpenAI erwirtschaftet rund 20 Milliarden Dollar jährlich. Anthropic liegt bei 9 Milliarden Run Rate. Cohere, Mistral und Perplexity zusammen kommen auf weniger als eine Milliarde. Der gesamte reine KI-Umsatz für 2026 wird auf unter 35 Milliarden projiziert, rund 5 Prozent des Hyperscaler-Capex.

Diese Lücke muss sich schließen. Wenn KI-Workloads nicht genug Umsatz generieren, um die Infrastruktur zu rechtfertigen, werden die Hyperscaler ihre Ausgaben drosseln, und die günstige Inferenz-Zukunft, auf die alle setzen, kommt später als erwartet. Am meisten profitieren Unternehmen, die KI-Agenten mit messbarem Umsatz oder Kosteneinsparungen bauen, denn genau diese Use Cases schaffen die Nachfrage, die den Infrastrukturausbau trägt.

Weiterlesen: KI-Agent-Adoption 2026: Die Zahlen hinter dem Hype

Das globale Rennen jenseits von Big Tech

Das ist nicht nur eine US-Geschichte. Chinas Tech-Konzerne haben 2025 rund 125 Milliarden Dollar in KI-Infrastruktur investiert. Alibaba allein hat über drei Jahre RMB 380 Milliarden (ca. 53 Milliarden Dollar) zugesagt. ByteDances Capex-Ziel für 2026 liegt bei rund 23 Milliarden Dollar.

Jenseits der US-China-Achse hat die EU einen 200-Milliarden-Euro-Aktionsplan für KI-Fabriken angekündigt. Saudi-Arabien investiert 15 Milliarden Dollar oder mehr, die VAE bauen eine 26-Quadratkilometer-Anlage mit 5 GW Leistungskapazität. Das Stargate-Projekt (getragen von OpenAI, SoftBank, Oracle und MGX) zielt auf 500 Milliarden Dollar Gesamtinvestition bis 2029.

Für europäische Unternehmen ist besonders der EU-KI-Fabriken-Plan relevant. Souveräne KI-Infrastruktur wird lokale Alternativen für datenschutzsensible Workloads bieten, wenn auch in den ersten Jahren voraussichtlich mit einem Kostenaufschlag. Für DACH-Unternehmen, die unter DSGVO und dem EU AI Act operieren, könnte dies dennoch die bevorzugte Option werden: KI-Agenten auf europäischer Infrastruktur betreiben, ohne Daten in US-Rechenzentren zu transferieren.

Häufig gestellte Fragen

Wie viel geben die Big-Tech-Unternehmen 2026 für KI aus?

Die vier größten Hyperscaler (Amazon, Google, Meta und Microsoft) haben für 2026 zusammen rund 650 Milliarden Dollar Investitionsausgaben angekündigt, fast das Doppelte der rund 380 Milliarden Dollar von 2025. Amazon führt mit 200 Milliarden, gefolgt von Google mit 175-185 Milliarden, Meta mit 115-135 Milliarden und Microsoft mit über 120 Milliarden Dollar.

Warum gibt Amazon 200 Milliarden Dollar für KI-Infrastruktur aus?

Amazon-CEO Andy Jassy erklärt, dass KI-Kapazität so schnell monetarisiert wird, wie sie bereitgestellt wird. AWS hat eine annualisierte Umsatzrate von 142 Milliarden Dollar bei 24 Prozent Wachstum erreicht. Der Großteil der 200 Milliarden fließt in “AI Factories” mit Amazons eigenen Trainium-Chips, um die Abhängigkeit von Nvidia zu reduzieren.

Was bedeuten die Big-Tech-KI-Ausgaben für Unternehmen in der DACH-Region?

Der massive Infrastrukturausbau wird voraussichtlich bis 2027 Überkapazitäten schaffen und die Inferenzkosten um 40-60 Prozent senken. Gleichzeitig baut die EU eigene KI-Fabriken auf, die europäischen Unternehmen lokale Alternativen für datenschutzsensible KI-Agenten-Workloads bieten werden. DACH-Unternehmen sollten Multi-Cloud-Architekturen planen, um Lock-in zu vermeiden.

Wie wirken sich die KI-Investitionen auf die Entwicklung von KI-Agenten aus?

Die KI-Infrastrukturausgaben finanzieren direkt die Compute-Schicht, auf der KI-Agenten laufen. Wenn Inferenzkosten sinken und Custom-Chips (Trainium, TPUs) reifen, bekommen Agentenentwickler Zugang zu günstigerem und schnellerem Compute. Allerdings schaffen die vertikal integrierten Stacks der Hyperscaler Lock-in-Risiken.

Investieren die Big-Tech-Unternehmen zu viel in KI?

Die Sorge ist berechtigt. Die Umsätze reiner KI-Anbieter liegen 2026 insgesamt unter 35 Milliarden Dollar, also rund 5 Prozent des Hyperscaler-Capex von 650 Milliarden. Wenn KI-Workloads nicht schnell genug wachsen, werden die Ausgaben gedrosselt. Allerdings berichten die Hyperscaler, dass Kapazität schneller absorbiert wird als erwartet.