Ein durchschnittliches Unternehmen betreibt 957 Anwendungen. Nur 27 % davon sind mit irgendetwas anderem verbunden. Diese eine Zahl aus dem 2026 MuleSoft Connectivity Benchmark Report erklärt, warum die meisten KI-Agent-Projekte ins Stocken geraten. Der Flaschenhals ist nicht das Modell. Es ist nicht der Prompt. Es sind Jahrzehnte an Unternehmensinfrastruktur, die nie für Software konzipiert wurde, die eigenständig handelt.
Unternehmen betreiben bereits durchschnittlich 12 KI-Agenten, und 83 % berichten, dass die meisten Teams sie einsetzen. Aber 50 % dieser Agenten laufen in isolierten Silos, abgekoppelt von den Systemen, die sie eigentlich brauchen. Gartner prognostiziert, dass über 40 % der Agentic-AI-Projekte bis Ende 2027 eingestellt werden. Die Infrastrukturlücke ist der Hauptgrund.
Der grundlegende Architektur-Mismatch
Unternehmenssysteme wurden für Menschen gebaut. Agenten sind keine Menschen. Das klingt banal, aber die Konsequenzen reichen tief.
Klassische Enterprise-Software arbeitet deterministisch: gleiche Eingabe, gleiches Ergebnis, jedes Mal. Ein ERP verarbeitet eine Bestellung am Montag genauso wie am Freitag. KI-Agenten sind nicht-deterministisch. Sie schlussfolgern, passen sich an und liefern je nach Kontext unterschiedliche Ergebnisse. Wie eine CIO.com-Analyse feststellt: Das ist kein Bug, den man fixen kann. Es ist eine fundamentale architektonische Inkompatibilität.
Der Mismatch zeigt sich in drei konkreten Bereichen.
Batch-Verarbeitung vs. Echtzeit
Die meisten Enterprise-Kernsysteme, ob SAP, Oracle oder Mainframe-Backends, arbeiten im Batch-Modus. Sie verarbeiten Daten in geplanten Zyklen: nächtlicher Abgleich, wöchentliches Reporting, Monatsabschluss. KI-Agenten erwarten Echtzeit-Datenzugriff. Ein Agent, der Lagerbestände anpassen soll, braucht aktuelle Zahlen, nicht den Snapshot von gestern Nacht. Wenn Agenten auf Batch-Mauern stoßen, scheitern sie entweder lautlos oder arbeiten mit veralteten Daten. Beides zerstört Vertrauen schnell.
Strukturierte Formate vs. natürliche Sprache
KI-Agenten kommunizieren in natürlicher Sprache. Unternehmenssysteme erwarten XML, JSON, SOAP oder proprietäre API-Aufrufe. Ein Enterprise-Architekt erklärte gegenüber CIO.com: “Man bräuchte einen weiteren Agenten, dessen einzige Aufgabe es ist, Englisch in API-Aufrufe zu übersetzen.” Das ist kein Witz. Es ist ein tatsächliches Muster in Produktionsumgebungen, und es fügt Latenz, Kosten und eine weitere Fehlerquelle hinzu.
Identität und Berechtigungen
Herkömmliche Systeme gehen davon aus, dass ein Mensch sich einloggt, einmal authentifiziert und innerhalb einer Sitzung arbeitet. Agenten brauchen Machine-to-Machine-Authentifizierung, die den Identitätskontext über mehrstufige Workflows hinweg bewahrt. Wenn Agent A Agent B aufruft, der wiederum eine Datenbank abfragt, muss die Datenbank die Berechtigungen des ursprünglichen Nutzers kennen, nicht die des Dienstkontos von Agent B. Die meisten Legacy-IAM-Systeme können Identität nicht durch Agent-Ketten propagieren.
Die Zahlen hinter der Lücke
Die MuleSoft-Umfrage unter 1.050 IT-Entscheidern zeichnet ein detailliertes Bild des Infrastrukturdefizits.
96 % der Unternehmen stoßen auf Barrieren, wenn sie ihre Daten für KI nutzen wollen. Nicht einige Unternehmen. Nicht die meisten. Praktisch alle.
27 % der APIs sind nicht überwacht, also niemand trackt, wer sie aufruft, wie oft und mit welchen Berechtigungen. Für KI-Agenten, die mehrere API-Aufrufe verketten, bedeutet ein einziger unüberwachter Endpunkt in der Kette: Der gesamte Workflow ist nicht auditierbar.
89 % sehen Verbesserungsbedarf beim API-Management. Das ist eine höfliche Umschreibung für: Die aktuelle API-Schicht kann autonome Software nicht unterstützen.
40 % nennen veraltete IT-Architektur und Datensilos als größten Blocker. Nicht Budget. Nicht Fachkräftemangel. Architektur.
Diese Zahlen decken sich mit dem, was Entwickler berichten. Die Langbase State of AI Agents-Umfrage unter 3.400+ Entwicklern ergab: 70 % haben Probleme bei der Integration von Agenten in bestehende Systeme, 85 % fehlt wiederverwendbare Multi-Agent-Infrastruktur und 75 % kämpfen mit fragmentierten Tools.
Der Dynatrace Pulse of Agentic AI 2026-Report fügt eine weitere Ebene hinzu: Rund 50 % der Agentic-AI-Projekte stecken im Proof-of-Concept oder Pilotstadium fest. Sie funktionieren in der Demo. Sie scheitern in der Produktion. Der Unterschied ist fast immer die Infrastruktur.
Warum die Lücke weiter wächst
Das Infrastrukturdefizit steht nicht still. Es wird größer. Drei Kräfte treiben es auseinander.
App-Wildwuchs
Das durchschnittliche Unternehmen betreibt mittlerweile 957 Anwendungen, gegenüber 897 im Vorjahr. Jedes neue SaaS-Tool, jede abteilungsspezifische Plattform, jeder Shadow-IT-Kauf fügt einen weiteren nicht integrierten Endpunkt hinzu. Die Integrationsrate (27 %) hat sich nicht bewegt. Jede neue App erhöht also die absolute Zahl unverbundener Systeme.
Agenten-Sprawl
Agenten vermehren sich schneller, als Infrastrukturteams sie anbinden können. John Wei beschreibt für CIO.com, wie seine Organisation von einer Handvoll Pilot-Agenten auf fast 2.000 KI-Agent-Instanzen über mehr als 40 Agententypen anwuchs. Sein Fazit: “Nicht die Agenten sind das Problem. Das Skalieren ist es.”
IDC prognostiziert, dass die Zahl der eingesetzten KI-Agenten bis 2029 weltweit eine Milliarde überschreiten wird, eine Vervierfachung gegenüber 2025. Die meisten Unternehmen sind nicht bereit für die 12, die sie jetzt haben, geschweige denn für die Hunderte, die sie in drei Jahren betreiben werden.
Die Compliance-Uhr
Für europäische Unternehmen setzt der EU AI Act eine harte Frist. Bis zum 2. August 2026 müssen Hochrisiko-KI-Systeme vollständige Datenlinienverfolgung, Human-in-the-Loop-Checkpoints und Risikoklassifizierung nachweisen. Strafen bei Nichteinhaltung: bis zu 35 Millionen Euro oder 7 % des weltweiten Umsatzes. Datenlinienverfolgung durch ein System, in dem 73 % der Apps nicht verbunden sind, ist schlicht unmöglich. Compliance erfordert Integration, und Integration erfordert Infrastruktur, die die meisten Unternehmen nicht haben.
Für DACH-Unternehmen kommt hinzu: Die DSGVO verlangt bei automatisierten Entscheidungen nach Artikel 22 ohnehin schon transparente Verarbeitungsketten. Das Zusammenspiel von DSGVO und EU AI Act verdoppelt den Compliance-Aufwand für jeden Agenten, der personenbezogene Daten verarbeitet.
Die Lücke schließen: Was tatsächlich funktioniert
Die Lösung ist nicht der Austausch aller Legacy-Systeme. Das würde Jahre dauern und zweistellige Millionenbeträge kosten. Unternehmen, die Fortschritte machen, nutzen inkrementelle Strategien, die 2-3x kosteneffizienter sind als vollständige Modernisierung.
Das Model Context Protocol (MCP)
MCP, ursprünglich von Anthropic entwickelt und inzwischen an die Agentic AI Foundation der Linux Foundation übergeben, etabliert sich als Standard für die Verbindung von Agenten mit Daten. Mit 97 Millionen monatlichen SDK-Downloads und Unterstützung von Anthropic, OpenAI, Google und Microsoft bietet es eine universelle Schnittstelle zwischen Agenten und Unternehmenstools.
Unternehmen, die MCP implementieren, berichten von 40-60 % schnelleren Agent-Deployment-Zeiten. Laut MuleSoft-Umfrage nutzen oder planen 39 % der IT-Entscheider den Einsatz von MCP. Das Protokoll löst das Formatübersetzungsproblem: Agenten sprechen MCP, und MCP-Server sprechen mit SAP, Salesforce oder der eigenen Datenbank.
Die Herausforderung bleibt die Authentifizierung. Unternehmen erwarten, dass Agent-Verbindungen über bestehende Identity Provider laufen, mit voller Sichtbarkeit und Policy-Kontrolle. MCPs Auth-Schicht reift noch.
Agent Fabric und Integrationsplattformen
MuleSofts Agent Fabric verfolgt einen anderen Ansatz: Statt das Protokoll zu standardisieren, wird die Management-Ebene standardisiert. Agent Scanner erkennen und registrieren KI-Agenten automatisch über Plattformen hinweg (Salesforce Agentforce, Google Cloud Vertex AI, Amazon Bedrock). Die Agent Registry und der Agent Visualizer bieten eine konsolidierte Sicht auf jeden Agenten, seine Verbindungen und Berechtigungen.
Andrew Comstock, SVP/GM bei MuleSoft, bringt es auf den Punkt: “Der wahre Erfolg eines Agentic Enterprise liegt nicht in der Anzahl der eingesetzten Agenten, sondern in der Gesamteffektivität dieser Agenten.”
Das Strangler-Fig-Pattern
Für Legacy-Systeme, die nicht über Nacht ersetzt werden können, bietet das Strangler-Fig-Pattern einen bewährten Migrationspfad. Man umhüllt das Legacy-System mit einer modernen API-Schicht, leitet den neuen Agent-Traffic über den Wrapper und ersetzt das darunterliegende System Stück für Stück. Europäische Hersteller, die diesen Ansatz nutzen, berichten von 30-50 % kürzeren Migrationszeiten im Vergleich zu klassischen Lift-and-Shift-Projekten.
Gerade in der deutschen Industrie ist das relevant. Thoughtworks berichtet, dass europäische Automobilhersteller für neue Software-Features 12-18 Monate brauchen, primär wegen monolithischer Architekturen. In der Medizintechnik fließen rund 40 % der Entwicklungskapazität in Compliance-Dokumentation statt in Innovation.
Plattform-First-Architektur
Die Unternehmen, die am weitesten sind, behandeln Agentic AI als Plattform-Problem, nicht als Sammlung einzelner Agent-Deployments. Das bedeutet: gemeinsame Infrastruktur für Security, Policy Enforcement, Observability und Lifecycle Management. Einheitliche Design Patterns über alle Agenten hinweg. Eine Governance-Schicht, die mit der Anzahl der Agenten skaliert, statt manuelle Reviews für jeden einzelnen zu erfordern.
Die Budget-Realität
Die Infrastrukturlücke zu schließen ist nicht billig, aber sie nicht zu schließen ist teurer.
Implementierungskosten für Enterprise-KI-Agent-Infrastruktur reichen von 220.000 bis 400.000 Dollar für eine einzelne Abteilung bis zu 700.000 bis über 2 Millionen Dollar für unternehmensweite Deployments, plus 80.000 bis 500.000 Dollar jährliche Betriebskosten. IT-Entscheider reagieren bereits: 19 % der IT-Budgets fließen in den nächsten 12 Monaten in Agentic-Transformation, und 74 % der Unternehmen erwarten steigende Agentic-AI-Budgets.
In der DACH-Region ist die Dynamik vergleichbar. Bitkom meldet, dass 36 % der deutschen Unternehmen bereits KI einsetzen, fast doppelt so viele wie im Vorjahr. Der KI-Plattformmarkt in Deutschland wächst 2026 um 61 % auf 4,1 Milliarden Euro. Drei von vier DACH-IT-Entscheidern planen, ihre Data-Governance-Frameworks 2026 auszubauen, weil schlechte Datenqualität und Fragmentierung ihr größtes Hindernis sind.
Alois Reitbauer, Chief Technology Strategist bei Dynatrace, fasst die Lage zusammen: “Unternehmen verlangsamen die Einführung nicht, weil sie den Wert von KI bezweifeln, sondern weil die sichere Skalierung autonomer Systeme Vertrauen erfordert”, dass die zugrundeliegenden Systeme sich wie erwartet verhalten.
Das Vertrauen wird von der Infrastruktur kommen. Nicht umgekehrt.
Häufig gestellte Fragen
Warum sind Unternehmenssysteme nicht bereit für KI-Agenten?
Unternehmenssysteme wurden für deterministische, menschlich bediente Workflows gebaut. KI-Agenten sind nicht-deterministisch, benötigen Echtzeit-Datenzugriff, kommunizieren in natürlicher Sprache statt strukturierter Formate und brauchen Machine-to-Machine-Authentifizierung. Nur 27 % der Enterprise-Apps sind per API integriert, und 96 % der Unternehmen berichten von Barrieren bei der KI-Datennutzung.
Wie viel Prozent der Agentic-AI-Projekte werden scheitern?
Gartner prognostiziert, dass über 40 % der Agentic-AI-Projekte bis Ende 2027 eingestellt werden. Forrester schätzt, dass weniger als 15 % der Firmen die agentischen Funktionen in ihren Automatisierungssuiten aktivieren werden. Rund 50 % der aktuellen Projekte stecken im Proof-of-Concept oder Pilotstadium fest.
Was kostet es, Unternehmensinfrastruktur für KI-Agenten bereit zu machen?
Implementierungskosten reichen von 220.000 bis 400.000 Dollar für eine Abteilung bis zu 700.000 bis über 2 Millionen Dollar für unternehmensweite Deployments, plus 80.000 bis 500.000 Dollar jährliche Betriebskosten. IT-Entscheider widmen 19 % ihrer Budgets der Agentic-Transformation. Unternehmen, die die Infrastrukturlücke schließen, berichten von 405 % ROI über drei Jahre.
Was ist MCP und wie hilft es bei der KI-Agent-Integration?
Das Model Context Protocol (MCP) ist ein offener Standard, ursprünglich von Anthropic entwickelt und jetzt bei der Agentic AI Foundation der Linux Foundation. Es bietet eine universelle Schnittstelle zwischen KI-Agenten und Unternehmensdatenquellen. Mit 97 Millionen monatlichen SDK-Downloads und Unterstützung von Anthropic, OpenAI, Google und Microsoft berichten Unternehmen von 40-60 % schnelleren Agent-Deployment-Zeiten.
Wie verbinden sich KI-Agenten mit Legacy-Systemen?
Der effektivste Ansatz ist das Strangler-Fig-Pattern: Das Legacy-System wird in eine moderne API-Schicht eingehüllt, Agent-Traffic wird über den Wrapper geleitet und das darunterliegende System schrittweise ersetzt. Dies ist 2-3x kosteneffizienter als vollständige Modernisierung. Weitere Ansätze sind Integrationsplattformen wie MuleSoft Agent Fabric, MCP-Server und dedizierte Übersetzungsagenten.
