Foto von RDNE Stock project auf Pexels Source

Tausende Anbieter verkaufen gerade “Agentic AI.” Ungefähr 130 davon können tatsächlich liefern, was sie versprechen. Diese Zahl stammt aus Gartners Analyse von 2025, die gleichzeitig prognostiziert, dass über 40% aller Agentic-AI-Projekte bis Ende 2027 eingestellt werden: zu hohe Kosten, unklarer Geschäftswert, fehlende Risikokontrolle. Der Rest des Marktes? Chatbots im Agentenmantel. RPA mit neuem Logo. Workflow-Builder mit Preisaufschlag.

Die Branche hat einen Begriff dafür: Agent Washing. Es ist das KI-Pendant zum Greenwashing. Unternehmen kleben das Wort “agentisch” auf bestehende Produkte, ohne die Fähigkeiten hinzuzufügen, die Agenten tatsächlich nützlich machen: autonome Zielverfolgung, dynamische Planung, Fehlerbehebung ohne menschliches Eingreifen.

Weiterlesen: Was sind KI-Agenten? Ein praktischer Leitfaden für Entscheider

Wie Agent Washing in der Praxis aussieht

Agent Washing ist nicht immer offensichtlich. Die Anbieter lügen nicht unbedingt; sie dehnen Definitionen, bis “Agent” alles und nichts bedeutet. Die häufigsten Muster, zusammengetragen aus Gartners Marktanalyse und Praxisaudits von Particula.

Der Chatbot-Rebrand

Ein Kundenservice-Chatbot, der einem Entscheidungsbaum folgt, bei Problemen an Menschen eskaliert und nur Fragen beantworten kann, auf die er explizit programmiert wurde, wird zum “Customer Success Agent” umbenannt. Die Oberfläche sieht modern aus. Vielleicht nutzt er sogar ein LLM für die Sprachgenerierung. Aber er kann keine Ziele setzen, keine mehrstufigen Lösungen planen und nicht im Namen des Kunden systemübergreifend handeln. Er wartet auf Eingaben, generiert eine Antwort und stoppt. Das ist ein Chatbot, egal was die Marketingseite sagt.

Das RPA-Kostüm

Ein RPA-Tool, das eine feste Abfolge von Klicks, Formularfeldern und Datenübertragungen ausführt, wird als “intelligenter Prozess-Agent” neu verpackt. Die Workflows sind weiterhin hart kodiert. Das Tool bricht weiterhin, wenn eine Website ihr Layout ändert. Es kann seinen Ansatz nicht anpassen, nicht aus Fehlern lernen und keine Szenarien außerhalb seines Skripts bewältigen. Mindflows Analyse des Marktes für agentische Automatisierung zeigt, dass viele “Agentic RPA”-Produkte einen LLM-Wrapper für die Konfiguration in natürlicher Sprache hinzufügen, darunter aber die gleiche starre, deterministische Ausführung behalten.

Der Workflow-Automatisierungs-Upsell

Marketing-Automatisierungsplattformen, die E-Mail-Sequenzen orchestrieren, CRM-Tools mit Wenn-Dann-Regeln und Projektmanagementsoftware mit automatischer Aufgabenzuweisung werden zunehmend als “agentische Systeme” verkauft. Sie führen vordefinierte Logik aus. Sie reflektieren nicht, ob die Logik in einer bestimmten Situation sinnvoll ist. Der Unterschied zählt: Ein echter Agent würde erkennen, dass ein Kunde, der gerade eine Beschwerde eingereicht hat, drei Minuten später keine Werbe-E-Mail erhalten sollte, auch wenn die Workflow-Regel genau das vorschreibt.

Weiterlesen: Agentic AI vs. Generative AI: Was Entscheider wissen müssen

Warum 40% der Agentic-AI-Projekte eingestellt werden

Gartners Prognose ist kein Pessimismus. Es ist Mustererkennung. Basierend auf einer Befragung von 3.412 Webinar-Teilnehmern im Januar 2025 hatten 19% der Organisationen signifikante Investitionen in Agentic AI getätigt, 42% konservative Investitionen. Aber der Großteil dieser Ausgaben floss an Anbieter, die echte Autonomie nicht liefern konnten.

Die Gründe für das Scheitern folgen einem vorhersehbaren Muster.

Kosten eskalieren schneller als der Nutzen. Echte agentische Systeme brauchen persistentes State-Management, Orchestrierungsinfrastruktur, Guardrail-Schichten und kontinuierliches Monitoring. Wenn Unternehmen einen “Agenten” kaufen, der eigentlich ein Chatbot ist, müssen sie die gesamte Infrastruktur selbst aufbauen, oft für das 3- bis 5-fache des ursprünglichen Kaufpreises. XMPROs Post-Mortem-Analyse gescheiterter Projekte zeigt, dass die meisten Teams den Infrastrukturbedarf um 60-80% unterschätzten.

Der Geschäftswert bleibt unklar. Ein echter Agent, der autonom Spesenfreigaben, Lieferantenverhandlungen oder Incident-Triage übernimmt, schafft messbaren Wert: weniger Personalstunden, schnellere Lösung, geringere Fehlerquoten. Ein umbenannter Chatbot, der bei jeder Entscheidung menschliche Aufsicht braucht, erzeugt Overhead, keinen Wert. Der Outreach.io-Leitfaden zu Agent Washing dokumentiert Fälle, in denen Unternehmen Enterprise-Preise für “KI-Vertriebsagenten” zahlten, die sich als Lead-Scoring-Tools mit Chat-Interface herausstellten.

Risikokontrolle fehlt. Echte Agenten brauchen echte Governance: Audit-Trails, Rollback-Fähigkeiten, Berechtigungsgrenzen, Output-Validierung. Agent-gewaschene Produkte bieten das selten, weil das zugrunde liegende Produkt nie für autonomen Betrieb konzipiert wurde. Besonders im DACH-Raum, wo die DSGVO und der EU AI Act strenge Anforderungen an automatisierte Entscheidungssysteme stellen, ist das fehlende Governance-Framework ein Compliance-Risiko, das über den reinen Projekterfolg hinausgeht.

Weiterlesen: KI-Agent ROI: Was Enterprise-Deployments wirklich kosten

Fünf Merkmale, die echte Agenten von Fakes unterscheiden

Nach Auswertung von Gartners Framework, McKinsey/QuantumBlacks Bewertungskriterien und Amazons Praxiserfahrungen mit Agent-Deployments kristallisieren sich fünf Fähigkeiten heraus, die echte agentische Systeme zuverlässig von umbenannter Automatisierung unterscheiden.

1. Zielzerlegung statt Skriptausführung

Ein echter Agent nimmt ein übergeordnetes Ziel (“Reduktion unserer Debitorenlaufzeit von 45 auf 30 Tage”) und zerlegt es eigenständig in Teilaufgaben. Er entscheidet, welche Rechnungen nachverfolgt werden, verfasst passende Nachrichten, eskaliert festsitzende Konten und passt seine Strategie anhand der Ergebnisse an. Ein falscher Agent führt eine vorgegebene Sequenz aus: Erinnerung am Tag 30, zweite Erinnerung am Tag 37, Eskalation an einen Menschen am Tag 42.

Anbieter-Test: Fragen Sie, was passiert, wenn der Agent auf ein Szenario trifft, das nicht in den Trainingsdaten war. Lautet die Antwort “Konfiguration” oder “benutzerdefinierte Regeln,” schauen Sie sich Automatisierung an, keinen Agenten.

2. Werkzeugnutzung und Umgebungsinteraktion

Echte Agenten wählen und nutzen Werkzeuge dynamisch. Sie können eine Datenbank abfragen, eine API aufrufen, ein Dokument lesen und die Ergebnisse zu einer Aktion zusammenfügen, alles innerhalb einer einzigen Aufgabe, ohne dass ein Mensch die Werkzeuge auswählt. Anthropics Evaluierungsframework misst explizit, ob ein Agent das richtige Werkzeug für die Aufgabe wählt, nicht nur, ob er Werkzeuge nutzen kann.

Anbieter-Test: Bitten Sie um Einsicht in die Tool-Invocation-Logs. Wenn jeder Durchlauf dieselben Werkzeuge in derselben Reihenfolge nutzt, ist es eine Pipeline, kein Agent.

3. Fehlerbehebung ohne menschliches Eingreifen

Diese Fähigkeit trennt echte Agenten am deutlichsten von Hochstaplern. Wenn bei einem echten Agenten ein API-Aufruf fehlschlägt, versucht er einen alternativen Endpunkt. Wenn ein Dokument in unerwartetem Format vorliegt, passt er seine Parsing-Strategie an. Wenn sein ursprünglicher Plan nicht funktioniert, plant er um. Ein umbenanntes Workflow-Tool wirft einen Fehler und wartet auf menschliche Hilfe.

Anbieter-Test: Führen Sie absichtlich einen Fehler während der Demo ein. Ändern Sie ein Dateiformat, entziehen Sie einen API-Schlüssel, geben Sie widersprüchliche Anweisungen. Beobachten Sie, was passiert.

4. Persistenter Speicher und Kontext

Agenten behalten Kontext über Sitzungen und Aufgaben hinweg. Sie erinnern sich, dass die letzte Kontaktaufnahme mit Lieferant X 72 Stunden Antwortzeit brauchte, und senden die Nachfassung dieses Mal früher. Sie verfolgen, welche Ansätze funktioniert haben und welche nicht. Chatbots und RPA-Tools starten jedes Mal bei null oder greifen auf manuell gepflegte Kontextdatenbanken zurück.

Anbieter-Test: Fragen Sie den Agenten nach einer Aufgabe, die er letzte Woche bearbeitet hat. Wenn er ohne manuelles Laden von Kontext nicht auf vergangene Interaktionen Bezug nehmen kann, fehlt eine zentrale agentische Fähigkeit.

5. Nachvollziehbare Entscheidungsketten

Ein echter Agent kann für jeden Schritt in einem mehrstufigen Prozess erklären, warum er diese Entscheidung getroffen hat. Nicht nur was er getan hat, sondern warum er diesen Ansatz gegenüber Alternativen gewählt hat. Das ist entscheidend für Governance, Debugging und Vertrauen. Amazons Deployment-Erfahrung hebt hervor, dass die Fähigkeit, Entscheidungsketten zu auditieren, das Erste ist, was Unternehmenskäufer prüfen sollten.

Anbieter-Test: Fordern Sie eine detaillierte Ablaufverfolgung einer abgeschlossenen Aufgabe an. Wenn der Anbieter nur Ein- und Ausgaben zeigen kann, aber nicht die Denkschritte dazwischen, ist der “Agent” eine Black Box. Und eine Black Box ist in der Regel kein Agent.

Die Checkliste für die Anbieterbewertung

Bevor Sie einen Vertrag mit einem Anbieter unterzeichnen, der agentische Fähigkeiten verspricht, gehen Sie diese Checkliste durch. Sie basiert auf den obigen Mustern und auf AppsTek Corps Enterprise-Evaluierungsframework.

FrageWarnsignal-Antwort
Was passiert bei einem unbekannten Szenario?“Es eskaliert an einen Menschen” (immer)
Kann der Agent seinen Plan während der Ausführung ändern?“Er folgt dem konfigurierten Workflow”
Wie wählt der Agent seine Werkzeuge?“Werkzeuge werden pro Workflow konfiguriert”
Zeigen Sie die Entscheidungsverfolgung einer AufgabeZeigt nur Input/Output, keine Begründung
Welchen Zustand behält der Agent zwischen Sitzungen?“Jede Sitzung startet frisch”
Wie funktioniert Rollback bei Agentenfehlern?Kein Rollback-Mechanismus vorhanden
Wie reagiert der Agent auf Fehler?“Er wiederholt dieselbe Aktion” oder “Er stoppt und alarmiert”

Wenn drei oder mehr dieser Fragen Warnsignal-Antworten liefern, bewerten Sie ein umbenanntes Automatisierungstool, keinen Agenten.

Weiterlesen: KI-Agent Testing: Wie man nicht-deterministische Systeme prüft

Was derzeit tatsächlich funktioniert

Die 130 Anbieter, die Gartner als echte agentische Systeme identifiziert hat, teilen einige architektonische Muster. Sie nutzen LLMs für Reasoning und Planung, nicht nur für Sprachgenerierung. Sie implementieren ReAct-Schleifen (Reason + Act) oder ähnliche Architekturen, bei denen der Agent zwischen Denken und Handeln iteriert. Sie bieten explizite Tool-Use-Frameworks, oft basierend auf Protokollen wie MCP oder A2A. Und sie liefern Observability-Infrastruktur, denn was man nicht sehen kann, kann man nicht steuern.

Frameworks wie LangGraph, CrewAI und AutoGen geben Teams die Bausteine für echtes agentisches Verhalten. Aber auch diese erfordern sorgfältige Implementierung. Das Framework allein macht ein System nicht agentisch, genauso wenig wie der Besitz einer Gitarre jemanden zum Musiker macht. Die agentische Qualität entsteht durch die Komposition von Reasoning-Schleifen, Werkzeugzugang, Speicherverwaltung und Guardrails.

Für Unternehmenseinkäufer, die 2026 Anbieterversprechen bewerten, ist der sicherste Ansatz: Fordern Sie einen Proof-of-Concept mit eigenen Daten, eigenen Grenzfällen und selbst entworfenen Fehlerbedingungen. Jeder Anbieter, der von den Fähigkeiten seines Agenten überzeugt ist, wird diesen Test begrüßen. Jeder Anbieter, der auf eine kontrollierte Demo mit vordefinierten Eingaben besteht, verkauft wahrscheinlich einen Workflow mit neuem Namen.

Häufig gestellte Fragen

Was ist Agent Washing bei KI?

Agent Washing ist die Praxis, bestehende Chatbots, RPA-Tools und Workflow-Automatisierung als “KI-Agenten” oder “Agentic AI” umzubenennen, ohne echte autonome Fähigkeiten hinzuzufügen. Gartner schätzt, dass nur etwa 130 von Tausenden Anbietern mit agentischen Behauptungen tatsächlich echte autonome Agenten liefern.

Wie viele Agentic-AI-Anbieter sind laut Gartner echt?

Ungefähr 130 von Tausenden. Das bedeutet, dass rund 95% der als KI-Agenten vermarkteten Produkte keine Agenten sind. Es sind bestehende Produkte, die umbenannt wurden, um vom Hype-Zyklus zu profitieren.

Warum werden 40% der Agentic-AI-Projekte eingestellt?

Drei sich verstärkende Faktoren: Kosten eskalieren 3- bis 5-fach über die ursprünglichen Schätzungen hinaus; der Geschäftswert bleibt unklar, weil umbenannte Tools weiterhin menschliche Aufsicht bei jedem Schritt brauchen; und Risikokontrolle fehlt, weil die Produkte nie für autonomen Betrieb konzipiert wurden. Im DACH-Raum kommen DSGVO- und EU-AI-Act-Compliance als zusätzliche Anforderungen hinzu.

Wie erkennt man, ob ein KI-Agent echt oder falsch ist?

Testen Sie fünf Kernfähigkeiten: autonome Zielzerlegung, dynamische Werkzeugauswahl, Fehlerbehebung ohne menschliches Eingreifen, persistenter Speicher über Sitzungen hinweg und nachvollziehbare Entscheidungsketten. Der einfachste Test: Führen Sie absichtlich einen Fehler während einer Anbieter-Demo ein und beobachten Sie, was passiert. Echte Agenten passen sich an. Fakes stürzen ab oder eskalieren.

Was ist der Unterschied zwischen RPA und echtem Agentic AI?

RPA führt feste, vorgegebene Sequenzen aus und bricht ab, wenn sich Bedingungen ändern. Echtes Agentic AI nutzt LLM-basiertes Reasoning, um Ziele zu zerlegen, Werkzeuge dynamisch auszuwählen, Pläne während der Ausführung anzupassen und aus vergangenen Interaktionen zu lernen. Viele Anbieter tarnen RPA durch eine LLM-Schicht für natürlichsprachliche Konfiguration, behalten darunter aber die gleiche starre Ausführungslogik.