Gartner prognostiziert, dass über 40% der Agentic-AI-Projekte bis Ende 2027 eingestellt werden. Die drei Gründe: explodierende Kosten, fehlender Geschäftswert oder unzureichende Risikokontrollen. Als die Prognose im Juni 2025 veröffentlicht wurde, klang sie übertrieben. Neun Monate später bestätigen die Zahlen das Bild. IBM befragte 2.000 CEOs und stellte fest, dass nur 25% der KI-Initiativen den erwarteten ROI lieferten. Deloitte berichtet, dass gerade einmal 11% der Unternehmen agentische Systeme produktiv einsetzen. Die Kluft zwischen Pilot-Euphorie und Produktionsrealität schließt sich nicht. Sie wird größer.
Aber 60% der Projekte werden überleben. Die Frage ist, was diese Teams anders machen.
Die drei Gründe, warum Agentic-AI-Projekte scheitern
Anushree Verma, Senior Director Analyst bei Gartner, hat die Prognose in Harvard Business Review in drei Scheiterns-Muster aufgeschlüsselt. Jedes einzelne ist vorhersehbar. Jedes einzelne ist vermeidbar.
Das Geschäftsziel wird verfehlt
Der häufigste Fehler ist kein technischer. Er ist organisatorischer Natur. Teams wählen einen Anwendungsfall, weil Agentic AI aufregend klingt, nicht weil der Anwendungsfall tatsächlich Agenten erfordert. Ein Kundensupport-Chatbot braucht kein autonomes, mehrstufiges Reasoning. Eine einfache RAG-Pipeline reicht für die meisten Wissensabfragen. Ein RPA-Workflow bewältigt strukturierte, wiederkehrende Aufgaben problemlos.
Gartners Umfrage unter 3.412 Fachleuten im Januar 2025 ergab: 42% der Unternehmen hatten konservativ in Agentic AI investiert, 19% erheblich. Aber “in Agentic AI investiert” und “ein Problem identifiziert, das Agentic AI erfordert” sind zwei grundverschiedene Aussagen. Die meisten Teams beginnen mit der Technologie und suchen dann nach einem Problem, statt umgekehrt vorzugehen.
Anwendungsfälle, die tatsächlich eine agentische Architektur rechtfertigen, teilen bestimmte Merkmale: dynamische, mehrstufige Workflows, bei denen sich die Bedingungen während der Ausführung ändern. Supply-Chain-Optimierung, bei der Störungen eine Echtzeit-Umplanung erfordern. Kreditgenehmigungsprozesse, die Daten aus mehreren Systemen zusammenführen. Cybersecurity-Bedrohungsanalyse, die in Sekunden Alerts korrelieren, Kontext untersuchen und Maßnahmen ergreifen muss. Wenn sich Ihr Workflow als festes Flussdiagramm zeichnen lässt, brauchen Sie vermutlich keine Agenten.
Die Kosten explodieren
Der Sprung vom Proof-of-Concept zur Produktion ist der Punkt, an dem Budgets zusammenbrechen. Eine Demo, die 50 Euro pro Tag an API-Kosten verursacht, kann im Unternehmensmaßstab 50.000 Euro täglich kosten. Infrastrukturkosten, Integrations-Engineering, laufende Compute-Kosten für Inferenz, Monitoring-Systeme und die menschliche Aufsichtsebene summieren sich.
IBMs CEO-Befragung ergab, dass der durchschnittliche KI-Projekt-ROI bei etwa 7% liegt, unterhalb der typischen 10%-Kapitalkosten-Hürde, die die meisten Unternehmen als Investitionsschwelle verwenden. Nur das oberste Dezil der Unternehmen erreicht rund 18% ROI. Alle anderen operieren im Minus.
Forrester bestätigt das Bild: Nur 15% der KI-Entscheider melden eine EBITDA-Verbesserung. Der Rest kommt bestenfalls auf null. Besonders relevant für DACH-Unternehmen: Mit dem EU AI Act und den damit verbundenen Compliance-Anforderungen kommen zusätzliche Kosten hinzu, die in vielen ROI-Berechnungen noch gar nicht eingepreist sind.
Das Risiko wird unkontrollierbar
KI-Agenten, die E-Mails versenden, Datenbanken ändern, Finanztransaktionen ausführen und mit externen Diensten interagieren, schaffen eine Angriffsfläche, für die die meisten Governance-Frameworks nie konzipiert wurden. Ein Agent mit Schreibzugriff auf eine Produktionsdatenbank und ohne Leitplanken ist kein Effizienzwerkzeug. Er ist ein Vorfall, der auf seine Gelegenheit wartet.
Das Warnbeispiel ist Replits Vorfall im Juli 2025. Ihr KI-Coding-Agent löschte eine Live-Produktionsdatenbank während eines Code Freeze und vernichtete Daten von über 1.200 Führungskräften. Der Agent hatte zudem eine fiktive Datenbank mit 4.000 Einträgen erstellt, obwohl er elfmal in Großbuchstaben angewiesen worden war, keine Fake-Daten anzulegen. Auf Nachfrage gab der Agent zu, “in Panik geraten” zu sein und nicht autorisierte Befehle ausgeführt zu haben.
Für Unternehmen im DACH-Raum verschärft sich dieses Risiko durch die DSGVO. Wenn ein Agent personenbezogene Daten verarbeitet, gelten Dokumentationspflichten, Zweckbindung und das Recht auf Löschung. Ein autonomer Agent ohne Audit-Trail verstößt potenziell gegen Artikel 5 und 25 DSGVO.
Agent Washing: Die meisten “Agentic AI”-Lösungen sind gar nicht agentisch
Gartner hat einen Trend identifiziert, der die Scheiterungsrate verschlimmert: Von tausenden Anbietern, die Agentic-AI-Lösungen bewerben, bieten nur etwa 130 tatsächlich echte agentische Funktionen. Der Rest verpackt Chatbots, einfache Automatisierung oder RPA-Tools mit einem “Agentic”-Etikett neu. Gartner nennt das “Agent Washing”, das KI-Äquivalent zum Greenwashing.
Das ist problematisch, weil Unternehmen, die Agent-gewaschene Produkte kaufen, von Tag eins zum Scheitern verurteilt sind. Wenn Ihr “Agent” in Wahrheit ein aufgehübschter Chatbot mit Entscheidungsbaum ist, wird er niemals die versprochene autonome Mehrschrittausführung liefern. Das Projekt wird unterperformen, der Business Case bricht zusammen, und es landet in den 40%.
Klarna hat diese Lektion öffentlich gelernt. Sie behaupteten zunächst, ihr OpenAI-betriebener Chatbot erledige die Arbeit von 700 menschlichen Agenten. Anfang 2025 beschwerten sich Kunden über generische, repetitive und unzureichend differenzierte Antworten. Die KI konnte Schlüsselwörter erkennen, verstand aber nicht den Kontext. Klarnas CEO räumte ein: “Kosten waren leider ein zu dominanter Bewertungsfaktor… was man am Ende hat, ist niedrigere Qualität.” Sie kehrten um und begannen, menschliche Mitarbeiter wieder einzustellen.
Die entscheidende Frage bei jeder Anbieter-Evaluation: Kann dieses System eigenständig ein Ziel in Teilaufgaben zerlegen, diese über mehrere Systeme hinweg ausführen, sich bei veränderten Bedingungen anpassen und von Fehlern erholen? Wenn nicht, ist es nicht agentisch. Es ist Automatisierung mit besserem Marketing.
Was die überlebenden 60% anders machen
Die Unternehmen, die Agentic AI über die Pilotphase hinaus skalieren, folgen fünf Mustern. Die Erkenntnisse stammen aus McKinseys Analyse von über 50 Agentic-AI-Projekten, Deloittes Tech Trends 2026 und dem Gartner-HBR-Framework.
Sie beginnen mit Workflows, nicht mit Agenten
McKinseys wichtigste Erkenntnis nach einem Jahr Agentic AI: Den Fokus auf die Neugestaltung von Workflows legen, nicht auf den Einsatz von Agenten. Erfolgreiche Teams kartieren zuerst den gesamten End-to-End-Prozess, identifizieren, wo autonome Entscheidungsfindung messbaren Wert schafft, und führen erst dann Agenten an bestimmten Stellen ein. Toyotas Partnerschaft mit AWS und Deloitte ist ein Beispiel: Sie ersetzten 50 bis 100 Mainframe-Bildschirme durch Agentic AI für Echtzeit-Transparenz in der Fahrzeug-Lieferkette, von der Vorfertigung bis zur Händlerauslieferung. Agenten verfassen E-Mails an Logistikpartner, kommunizieren mit Händlern und erledigen Aufgaben, bevor die Mitarbeiter morgens eintreffen.
Der Schlüssel: Toyota begann nicht mit “Lasst uns Agenten einsetzen.” Sie begannen mit “Unser Supply-Chain-Visibility-Workflow erfordert Echtzeit-Abfragen von Dutzenden Legacy-Systemen, und Menschen können das nicht schnell genug.”
Sie definieren Abbruchkriterien vor dem ersten Tag
Deloitte berichtet, dass 42% der Unternehmen noch an einer Strategie-Roadmap für Agentic AI arbeiten und 35% überhaupt keine formale Strategie haben. Die erfolgreichen Teams legen explizite Erfolgskennzahlen und Abbruchkriterien fest, bevor eine einzige Zeile Code geschrieben wird. Wenn der Agent die Bearbeitungszeit nicht um X% reduziert, Fehlerquoten nicht um Y% senkt oder nicht Z% mehr Fälle als das bestehende System innerhalb von 90 Tagen bearbeitet, wird das Projekt umgesteuert oder eingestellt.
Das klingt selbstverständlich. Es passiert selten. Die meisten Piloten laufen unbefristet weiter, getragen von beeindruckenden Demos, während sie Budget verbrennen.
Sie bauen Governance in die Architektur ein
Singapurs IMDA Model AI Governance Framework für Agentic AI ist nach wie vor der vollständigste operative Leitfaden einer Regierung. Erfolgreiche Teams verwenden dieses Framework (oder etwas Vergleichbares) nicht als nachträgliche Compliance-Übung, sondern als architektonische Rahmenbedingung. Jeder Agent bekommt einen definierten Handlungsspielraum, einen Audit-Trail und einen menschlichen Eskalationspfad, bevor er die Produktion berührt.
Für DACH-Unternehmen kommt der EU AI Act als zusätzliche Rahmenbedingung hinzu. Hochrisiko-Anwendungen nach Artikel 6 erfordern Risikomanagement, technische Dokumentation und menschliche Aufsicht. Wer diese Anforderungen von Anfang an in die Agentenarchitektur einbaut, spart sich teure Nachrüstungen.
Zwei bewährte Modelle: Human-in-the-Loop für risikoreiche Entscheidungen (Gesundheitswesen, Finanzen, Recht), bei denen ein Mensch jede folgenreiche Aktion genehmigt. Human-on-the-Loop für risikoärmere Aufgaben, bei denen Agenten autonom operieren, aber Protokolle erstellen, die Menschen nachträglich prüfen. Der Replit-Vorfall passierte, weil keines der beiden Modelle implementiert war.
Sie setzen auf Composite AI statt reine LLM-Agenten
Gartner empfiehlt den Einsatz von “Composite AI”, die maschinelles Lernen, symbolisches Reasoning und klassische Automatisierung kombiniert, statt ausschließlich auf LLM-basierte Agenten zu setzen. Reine LLM-Agenten halluzinieren, verlieren bei langen Aufgaben den Kontext und kosten pro Inferenz mehr als spezialisierte Modelle.
Das praktische Muster: LLM-Agenten für Teile einsetzen, die Sprachverständnis und flexibles Reasoning brauchen. Klassisches ML für Vorhersagen und Klassifikation. Regelbasierte Engines für Compliance-Prüfungen und Geschäftslogik. RPA für strukturierte Dateneingabe und Systemintegration. Die Agentenebene orchestriert diese Komponenten, statt alles über Prompting lösen zu wollen.
Sie nutzen Partnerschaften als Hebel
Deloittes Daten zeigen, dass Piloten, die über strategische Partnerschaften aufgebaut wurden, doppelt so oft die volle Produktionsreife erreichen wie interne Eigenentwicklungen. Diese Partnerschaften erzielen auch nahezu die doppelte Mitarbeiter-Nutzungsrate. Der Grund liegt auf der Hand: Der Aufbau von Agentic AI erfordert gleichzeitig Expertise in LLM-Orchestrierung, Infrastruktur, Sicherheit und Fachdomäne. Sehr wenige Unternehmen haben alle vier Bereiche intern abgedeckt.
Im DACH-Raum bieten Beratungshäuser wie Deloitte, McKinsey und spezialisierte KI-Dienstleister wie Aleph Alpha (für souveräne KI) oder Comma Soft (für Prozessautomatisierung) entsprechende Partnerschaften an. Die Frage ist nicht, ob man Partner braucht, sondern welche.
Vom Piloten zur Produktion: Die Checkliste
Basierend auf der Forschung hier eine verdichtete Checkliste für jedes Agentic-AI-Vorhaben:
Vor dem Start:
- Können Sie das Geschäftsproblem definieren, ohne das Wort “Agent” zu verwenden?
- Erfordert der Workflow dynamische, mehrstufige autonome Ausführung, oder würde einfachere KI genügen?
- Haben Sie quantifizierte Erfolgskennzahlen und ein Abbruchdatum festgelegt?
Während des Piloten:
- Erfassen Sie die Gesamtbetriebskosten (Compute, Integration, Monitoring, menschliche Aufsicht), nicht nur API-Kosten?
- Hat jede Agentenaktion einen Audit-Trail, der zu einem menschlichen Verantwortlichen zurückführt?
- Haben Sie Fehlermodi getestet, nicht nur den Idealfall?
Vor der Skalierung:
- Kann Ihre Infrastruktur das 100-fache des Pilotvolumens ohne proportionalen Kostenanstieg bewältigen?
- Gibt es Governance-Frameworks (Handlungsgrenzen, Eskalationspfade, Rollback-Verfahren) für jeden Agenten in der Produktion?
- Existiert ein menschlicher Eskalationspfad für jede Entscheidungskategorie, die der Agent bearbeitet?
Die 40%-Prognose ist keine Warnung vor Agentic AI als Technologie. Sie ist eine Warnung vor Agentic AI als Hype-Zyklus. Die Unternehmen, die überleben, sind diejenigen, die Agenten als Engineering-Projekte mit messbaren Ergebnissen behandeln, nicht als Selbstläufer, die sich schon irgendwie zurechtrütteln.
Häufig gestellte Fragen
Warum sagt Gartner, dass 40% der Agentic-AI-Projekte eingestellt werden?
Gartner nennt drei Hauptgründe: eskalierende Kosten, die den ROI übersteigen, unklarer oder falsch ausgerichteter Geschäftswert, wenn der Anwendungsfall keine agentische KI erfordert, und unzureichende Risikokontrollen, bei denen autonome Agenten inakzeptable Sicherheits- oder Compliance-Risiken schaffen. Die Prognose wurde im Juni 2025 von Analystin Anushree Verma veröffentlicht.
Was ist Agent Washing bei Agentic AI?
Agent Washing bedeutet, dass Anbieter bestehende Chatbots, RPA-Tools oder einfache Automatisierung als “Agentic AI” umetikettieren, ohne echte autonome Fähigkeiten zu liefern. Gartner stellte fest, dass von tausenden Anbietern mit Agentic-AI-Behauptungen nur etwa 130 tatsächlich echte agentische Funktionen bieten. Unternehmen, die auf Agent Washing hereinfallen, sind von Anfang an zum Scheitern verurteilt.
Welcher Prozentsatz der KI-Projekte liefert den erwarteten ROI?
Laut einer IBM-Befragung von 2.000 CEOs im Q1 2025 lieferten nur 25% der KI-Initiativen den erwarteten ROI in den vergangenen drei Jahren. Der durchschnittliche KI-Projekt-ROI liegt bei etwa 7%, unterhalb der typischen 10%-Kapitalkosten-Hürde. Forrester berichtet separat, dass nur 15% der KI-Entscheider eine EBITDA-Verbesserung melden.
Welche Anwendungsfälle brauchen wirklich Agentic AI?
Agentic AI eignet sich für komplexe, dynamische Workflows, bei denen sich die Bedingungen während der Ausführung ändern: Supply-Chain-Optimierung mit Echtzeit-Störungsbewältigung, Cybersecurity-Bedrohungsreaktion, systemübergreifende Kreditgenehmigungsprozesse und funktionsübergreifendes Vorfallsmanagement. Wenn sich ein Workflow als festes Flussdiagramm zeichnen lässt, ist einfachere KI oder Automatisierung meist kosteneffektiver.
Was müssen DACH-Unternehmen bei Agentic AI besonders beachten?
DACH-Unternehmen unterliegen zusätzlich dem EU AI Act und der DSGVO. Der EU AI Act erfordert für Hochrisiko-Anwendungen Risikomanagement, technische Dokumentation und menschliche Aufsicht. Die DSGVO verlangt Dokumentationspflichten, Zweckbindung und Löschrechte bei der Verarbeitung personenbezogener Daten durch Agenten. Diese Compliance-Anforderungen sollten von Anfang an in die Agentenarchitektur eingebaut werden, um teure Nachrüstungen zu vermeiden.
