Foto von Samuel Sweet auf Pexels Source

Von zehn Stunden Produktivitätsgewinn durch KI-Agenten zahlen Unternehmen im Schnitt vier Stunden in Nacharbeit zurück. Das ist keine Schätzung. Eine Workday-Studie mit 3.200 Führungskräften aus dem Januar 2026 belegt: 37 % der KI-getriebenen Produktivitätsgewinne verpuffen beim Korrigieren, Überprüfen und Umschreiben fehlerhafter Ergebnisse. Mitarbeitende verbringen inzwischen durchschnittlich sechs Stunden pro Woche damit, hinter der KI aufzuräumen. Die Modelle sind nicht das Problem. Die organisatorischen Leitungen zwischen den Modellen und den Menschen, die sie nutzen, sind es.

David Smith, Gründer von InFlow Analysis, hat dafür in einer Analyse auf CIO.com einen prägnanten Begriff geprägt: die Friction Tax. Damit bezeichnet er die versteckten Kosten, die entstehen, wenn KI-Systeme auf Geschäftsergebnisse optimieren, ohne zu berücksichtigen, wie Arbeit tatsächlich zwischen Menschen, Systemen und Entscheidungen fließt. Die Lösung liegt nicht in besseren Modellen. Sie liegt in dem, was Smith die Architektur des Flows nennt: ein Designprinzip, das Kontext unternehmensweit vereinheitlicht, damit Agenten arbeiten können, ohne dass Menschen als manuelle Vermittler fungieren müssen.

Weiterlesen: Die Agentic-AI-Infrastrukturlücke: Warum Unternehmenssysteme nicht agentenbereit sind

Die drei Quellen der Friction Tax

Die Friction Tax ist kein einzelnes Problem. Es sind drei unterschiedliche Fehlerquellen, die sich überlagern. Die meisten Unternehmen erleben alle drei gleichzeitig.

Die Vertrauenslücke

Teams vertrauen KI-Ergebnissen nicht. Und sie haben Recht damit. Die Workday-Studie zeigt, dass Mitarbeitende Stunden damit verbringen, KI-generierte Inhalte auf Halluzinationen zu prüfen: plausibel klingende, aber frei erfundene Daten, die KI-Systeme mit vollständiger Überzeugung ausgeben. Ein Vertriebsteam, das KI für Angebotsentwürfe nutzt, muss trotzdem jede Kundenreferenz, jede Preisangabe und jede Wettbewerbsaussage manuell verifizieren. Die Prüfung dauert fast so lang wie das manuelle Schreiben.

Das ist kein Schulungsproblem. Wenn ein KI-Agent Daten aus einem CRM zieht, in dem “Siemens AG,” “Siemens,” “Siemens Energy” und “Siemens Healthineers” als vier verschiedene Kunden geführt werden, hilft kein Prompt Engineering gegen die zugrundeliegende Datenfragmentierung. Der Agent präsentiert falsche Daten mit Überzeugung, weil er keine Möglichkeit hat, die Fragmentierung zu erkennen.

Das Kontextvakuum

KI-Agenten liefern generische Ergebnisse, weil ihnen institutioneller Kontext fehlt. Ein Support-Agent mit Zugriff auf das Ticketsystem, aber ohne Verbindung zur Buchhaltung, sieht nicht, dass der Kunde mit der dritten Beschwerde gleichzeitig der zweitgrößte Account ist, dessen Vertrag nächsten Monat zur Verlängerung ansteht. Der Agent schließt das Ticket. Der Kunde wechselt den Anbieter.

Smith nennt ein konkretes Beispiel: teure CRM-Implementierungen, die Vertriebsteams ablehnen, weil sie mehr als zehn zusätzliche Klicks pro Vorgang erzeugen. Das System funktioniert technisch. Aber es erzeugt Reibung, die den versprochenen Mehrwert zunichte macht. Kundenservice-Bots, die 20 % der Anrufe abfangen, sehen im Dashboard beeindruckend aus, während sie gleichzeitig die Zufriedenheit bei Schlüsselkunden beschädigen, die mit einem Menschen sprechen wollten.

Der Prompt-Iterationszyklus

Mitarbeitende verschwenden erhebliche Zeit mit dem Umformulieren von Prompts für Aufgaben, die sie manuell schneller erledigt hätten. Die Workday-Studie ergab: 54 % der Beschäftigten nutzen Werkzeuge von 2026 mit Stellenbeschreibungen von 2015. Niemand hat ihnen beigebracht, effektiv mit KI zu arbeiten, also verbrennen sie Zyklen mit Versuch-und-Irrtum-Prompting statt die eigentliche Arbeit zu erledigen.

Das erzeugt einen gefährlichen Kreislauf: Unternehmen bauen Personal ab in Erwartung von Produktivitätsgewinnen, die nie vollständig eintreten. Wer Fachkräfte abbaut, bevor die KI reif ist, muss sie später zu deutlich höheren Kosten wieder einstellen.

Architektur des Flows: Das Designmuster, das den Unterschied macht

Die Architektur des Flows ist kein Produkt, das man kauft. Es ist ein Organisationsdesign-Prinzip, das universellen Kontext über isolierte Intelligenz stellt. Statt KI-Agenten in bestehende Silos zu deployen und zu hoffen, dass sie die Verbindungen selbst herstellen, baut man eine gemeinsame Kontextschicht, die Agenten (und Menschen) das Gesamtbild sehen lässt.

Drei Säulen geteilten Mehrwerts

Smith beschreibt drei Säulen, die gleichzeitig adressiert werden müssen:

Mitarbeiterwohlbefinden. Die manuelle Integrationsarbeit eliminieren, die Wissensarbeiter zu menschlicher Middleware macht. Wenn ein Support-Mitarbeiter einen Anruf entgegennimmt, sollte die KI automatisch Abrechnungskontext, Kontohistorie und Verlängerungsdaten in dieselbe Ansicht ziehen. Niemand sollte zwischen sechs Anwendungen hin- und herschalten müssen.

Kundenwert. Die “Wiederholungsschleifen” eliminieren, die Kunden zwingen, ihr Problem bei jeder Interaktion mit einer anderen Abteilung erneut zu erklären. Nahtloser Datenfluss zwischen Marketing, Vertrieb und Support schafft eine durchgängige Customer Journey statt einzelner Transaktionen.

Geschäftswachstum. Dieser Punkt ist kontraintuitiv: Wachstum entsteht als Nebenprodukt, wenn Reibung sinkt, nicht als primäre Kennzahl. Unternehmen, die Effizienzmetriken direkt jagen (abgewiesene Anrufe, geschlossene Tickets, eingesparte Zeit), zerstören oft die Akzeptanz und Kundenbindung, die tatsächlich Umsatz generieren.

MCP und A2A als technisches Fundament

Die technischen Voraussetzungen für die Architektur des Flows existieren bereits. Das Model Context Protocol (MCP) bietet einen standardisierten Weg für KI-Agenten, auf Daten über Systemgrenzen hinweg zuzugreifen. Smith beschreibt MCP als “die Partitur des Unternehmens”: eine gemeinsame Sprache, die verschiedenen Instrumenten erlaubt, zusammenzuspielen, ohne dass ein Dirigent jede Note einzeln vorgibt.

Agent-to-Agent-Kommunikation (A2A) ermöglicht es spezialisierten Agenten, sicher zu koordinieren. Statt einen allwissenden KI-Agenten zu bauen (der bei Skalierung versagt), deployt man spezialisierte Agenten für Abrechnung, Support, Vertriebsprognosen und Compliance und lässt sie über A2A-Protokolle Kontext austauschen.

Weiterlesen: MCP und A2A: Protokolle für KI-Agent-Kommunikation

Warum Infrastruktur allein nicht reicht

Hier scheitern die meisten KI-Strategien in Unternehmen. Sie behandeln die Friction Tax als Technologieproblem und werfen Infrastruktur dagegen. McKinseys Analyse der Enterprise-Architektur im Agentic-Zeitalter identifiziert zwei Ansätze: inkrementelle Integration (Agenten schrittweise in bestehende Systeme einfügen) und umfassende Transformation (komplette Neugestaltung der Architektur).

Beide können scheitern, wenn sie die menschliche Ebene ignorieren. Gartner prognostiziert, dass über 40 % der Agentic-AI-Projekte bis 2027 scheitern werden, weil Legacy-Systeme moderne KI-Anforderungen nicht unterstützen. Aber Legacy-Systeme sind nur die halbe Wahrheit. Veraltete Stellenbeschreibungen, veraltete Kennzahlen und veraltete Organisationsstrukturen sind genauso tödlich.

Von Brutto-Effizienz zu Netto-Wert

Die Workday-Studie führt ein Framework ein, das jeder CIO bei der Einführung von Agentic AI übernehmen sollte: Schluss mit der Messung von Brutto-Effizienz, Umstieg auf Netto-Wert.

Der Unterschied ist entscheidend. Brutto-Effizienz zählt den Gesamtausstoß: gelöste Tickets, versendete E-Mails, committeter Code. Netto-Wert berücksichtigt Qualität: Hat das gelöste Ticket das Problem des Kunden wirklich behoben? Hat die E-Mail eine Antwort generiert? Hat der Code beim ersten Review bestanden?

Workday empfiehlt konkrete Kennzahlen-Ablösungen:

  • Kundenservice: Average Handle Time ersetzen durch Customer Lifetime Value
  • Recruiting: Time to Fill ersetzen durch Quality of Hire
  • Operations: Gesamtausstoß ersetzen durch First-Pass Yield
  • Engineering: Code-Volumen ersetzen durch Feature Adoption Rate

Jede dieser Umstellungen macht KI vom Geschwindigkeitswerkzeug zum Wertwerkzeug. Und sie verändert, welche KI-Investitionen Sinn ergeben: Man hört auf, auf Durchsatz zu optimieren, und fängt an, für den Kontext zu sorgen, den Agenten brauchen, um Aufgaben beim ersten Mal richtig zu erledigen.

Weiterlesen: Context Engineering: Das Architekturmuster, das Prompt Engineering ablöst

Universellen Kontext aufbauen: Ein praktischer Leitfaden

Wenn die Architektur des Flows das Ziel ist, dann ist universeller Kontext die Voraussetzung. So sieht das in der Praxis aus, basierend auf Mustern aus Organisationen, die ihre Friction Tax erfolgreich reduzieren.

Schritt 1: Kontextfragmentierung auditieren

Jedes System identifizieren, auf das ein Agent zugreifen müsste, um seine fünf wichtigsten Aufgaben vollständig zu erledigen. Für einen Kundenservice-Agenten könnte das sein: CRM, Abrechnungsplattform, Produkt-Analytics, Wissensdatenbank und Eskalations-Workflow. Die Anzahl der manuellen Übergaben zählen, die heute nötig sind. Diese Zahl ist die Friction-Tax-Baseline.

Schritt 2: Gemeinsame Kontextschicht implementieren

MCP-kompatible Konnektoren zwischen den Kernsystemen deployen. Das heißt nicht, den gesamten Stack zu ersetzen. Es heißt, eine einheitliche Datenzugriffsschicht zu schaffen, die Agenten abfragen können, ohne für jedes Systempaar eine eigene Integration zu bauen. Organisationen wie Anthropic und die Agentic AI Foundation der Linux Foundation standardisieren gerade, wie das funktioniert.

Schritt 3: Rollen für die KI-Ära umschreiben

54 % der Beschäftigten nutzen 2026er-Werkzeuge mit Stellenbeschreibungen von 2015. Das muss sich ändern. Jede Rolle, die mit KI-Agenten interagiert, braucht aktualisierte Verantwortlichkeiten: Was macht der Mensch, was macht der Agent, und wie funktioniert die Übergabe? Die Workday-Studie zeigt: Unternehmen, die 67 % ihres KI-Budgets in Mitarbeiter-Wellness investieren, aber nur 36 % in tatsächliche Kompetenzentwicklung, setzen die Prioritäten falsch.

Schritt 4: Urteilsvermögen statt Mechanik trainieren

Hört auf, Leuten beizubringen, wie man Prompts schreibt. Fangt an, ihnen beizubringen, wie man KI-Ergebnisse bewertet, wann man sie überstimmt und wie man den Kontext liefert, der Agenten langfristig besser macht. Die produktivsten KI-Nutzer in der Workday-Studie, die 98 %, die ihren Arbeitsplatz weiterempfehlen, sind diejenigen, die gelernt haben, ihr Urteilsvermögen mit KI zu verstärken, statt es an die KI auszulagern.

Für Unternehmen im DACH-Raum kommt eine weitere Dimension hinzu: Der EU AI Act verlangt ab August 2026 dokumentierte Prozesse für Hochrisiko-KI-Systeme. Die Architektur des Flows liefert genau die Transparenz und Nachvollziehbarkeit, die für die Compliance mit der KI-Verordnung notwendig ist. Wer den universellen Kontext richtig aufbaut, erfüllt gleichzeitig die Dokumentationsanforderungen der DSGVO und des EU AI Act.

Weiterlesen: Data Debt ist die neue technische Schuld: Warum KI-Agenten schlechte Daten sofort offenlegen

Häufig gestellte Fragen

Was ist die Friction Tax bei Agentic AI?

Die Friction Tax ist der versteckte Produktivitätsverlust, den Unternehmen zahlen, wenn KI-Systeme in Silos arbeiten, ohne gemeinsamen Kontext zu haben. Laut einer Workday-Studie gehen 37 % der KI-Produktivitätsgewinne durch Nacharbeit verloren, weil Mitarbeitende KI-Ergebnisse manuell überprüfen, korrigieren und umschreiben müssen. Sie äußert sich in drei Formen: der Vertrauenslücke (Halluzinationen prüfen), dem Kontextvakuum (fehlendes institutionelles Wissen) und dem Prompt-Iterationszyklus (ineffizientes Trial-and-Error-Prompting).

Was ist die Architektur des Flows?

Die Architektur des Flows ist ein Organisationsdesign-Prinzip, das von David Smith (InFlow Analysis) geprägt wurde. Es stellt universellen Kontext über isolierte KI-Intelligenz. Statt Agenten in bestehende Silos zu deployen, wird eine gemeinsame Kontextschicht mit Standards wie MCP und A2A aufgebaut, die Agenten und Menschen das Gesamtbild über Systeme, Teams und Entscheidungen hinweg sehen lässt.

Warum scheitern Agentic-AI-Projekte in Unternehmen?

Gartner prognostiziert, dass über 40 % der Agentic-AI-Projekte bis 2027 scheitern werden. Die Gründe gehen über Technologie hinaus: Legacy-Systeme, die moderne KI-Anforderungen nicht unterstützen, fragmentierte Daten über Dutzende Unternehmenssysteme hinweg, veraltete Stellenbeschreibungen und Organisationsstrukturen sowie ein Fokus auf Brutto-Effizienzmetriken (geschlossene Tickets, versendete E-Mails) statt auf Netto-Wert-Metriken, die berücksichtigen, ob die Arbeit tatsächlich richtig erledigt wurde.

Wie hilft MCP bei der Reduzierung der Friction Tax?

Das Model Context Protocol (MCP) bietet einen standardisierten Weg für KI-Agenten, auf Daten über verschiedene Unternehmenssysteme hinweg zuzugreifen, ohne für jedes Systempaar eigene Punkt-zu-Punkt-Integrationen zu bauen. Es fungiert als gemeinsame Sprache, die Agenten ermöglicht, Kontext aus CRM, Buchhaltung, Analytics und weiteren Plattformen über eine einheitliche Schnittstelle abzurufen, sodass Menschen nicht mehr manuell Informationen zwischen Systemen kopieren müssen.

Welche Kennzahlen sollten Unternehmen für Agentic AI verwenden?

Workday empfiehlt, Brutto-Effizienzmetriken durch Netto-Wert-Metriken zu ersetzen. Konkret: Customer Lifetime Value statt Average Handle Time, Quality of Hire statt Time to Fill, First-Pass Yield statt Gesamtausstoß und Feature Adoption Rate statt Code-Volumen. Diese Kennzahlen berücksichtigen Qualität und Ergebnisse statt reiner Geschwindigkeit und spiegeln besser wider, ob KI-Agenten tatsächlich Mehrwert schaffen.