Foto von Monstera Production auf Pexels Source

Die meisten KI-Agenten im Produktivbetrieb verschwenden zwischen 40 und 70 Prozent ihres Rechenbudgets. Nicht für komplexe Aufgaben oder anspruchsvolles Reasoning, sondern für Arbeit, die sie bereits erledigt haben, für Wiederholungsversuche bei Aufrufen, die nie funktionieren werden, und für Konversationshistorie, die sie nicht brauchen. Ein Entwickler auf r/AI_Agents berichtete, wie er Agenten daran hinderte, 60-70 % der Rechenleistung stillschweigend zu verschwenden, indem er fünf konkrete Muster korrigierte. Gartner schätzt, dass unoptimierte KI-Setups bis zu 50 % der Ausgaben für Leerlauf-Compute verschwenden. Das Problem ist nicht, dass Agenten teuer sind. Das Problem ist, dass Agenten verschwenderisch sind, und die meisten Teams nicht wissen, wo das Geld versickert.

Dieser Guide richtet sich an Entwickler. Keine organisatorische FinOps-Governance oder Cloud-Dashboards, sondern die fünf technischen Muster, die Token für nichts verbrennen, und die Code-Level-Fixes für jedes einzelne.

Weiterlesen: KI-Agenten-ROI: Was der Einsatz wirklich kostet

Die fünf Muster, die Ihr Agent-Budget auffressen

Jeder KI-Agent, der Tools aufruft, über Ergebnisse nachdenkt und mehrstufige Aktionen ausführt, ist anfällig für dieselben fünf Verschwendungsmuster. Sie verstärken sich gegenseitig. Ein Agent mit allen fünf Problemen verschwendet nicht 5x mehr, sondern 10-20x mehr, weil jedes Muster die anderen verstärkt. Ein redundanter Tool-Aufruf innerhalb einer Retry-Schleife innerhalb eines aufgeblähten Context-Windows verwandelt eine 0,02-Euro-Aufgabe in eine 2-Euro-Aufgabe.

Muster 1: Redundante Tool-Aufrufe

Das häufigste Verschwendungsmuster ist zugleich das unsichtbarste. Agenten rufen dasselbe Tool mit denselben Parametern mehrfach innerhalb einer einzigen Aufgabe auf. Ein Kundenservice-Agent schlägt denselben Bestelldatensatz dreimal in verschiedenen Reasoning-Schritten nach, weil das LLM strukturierten Zustand zwischen Tool-Aufrufen nicht beibehält. Ein Code-Analyse-Agent liest dieselbe Datei für jede Funktion neu ein, die er analysiert.

CodeAnt AIs Forschung zur Tool-Calling-Ineffizienz zeigt, dass redundante Tool-Aufrufe die Kosten einer einzelnen Interaktion um das 2-3-fache erhöhen können. Bei einem Produktiv-Agenten mit Tausenden Anfragen pro Tag summiert sich das zu Zehntausenden Euro pro Monat.

Der Fix ist ein Tool-Result-Cache mit zeitbasierten TTLs. Statische Daten wie Konfigurationsdateien, Nutzerprofile und Richtliniendokumente werden für die Dauer einer Aufgabe gecacht. Dynamische Daten wie Aktienkurse brauchen kürzere TTLs:

class ToolCache:
    def __init__(self):
        self._cache = {}

    def get_or_call(self, tool_name, params, ttl_seconds=300):
        key = f"{tool_name}:{hash(frozenset(params.items()))}"
        if key in self._cache:
            entry = self._cache[key]
            if time.time() - entry["ts"] < ttl_seconds:
                return entry["result"]
        result = self._call_tool(tool_name, params)
        self._cache[key] = {"result": result, "ts": time.time()}
        return result

Teams, die Tool-Caching implementieren, eliminieren typischerweise 30-50 % der redundanten Tool-Aufrufe, was sowohl Token-Kosten als auch Latenz direkt reduziert.

Muster 2: Retry-Stürme ohne Backoff

Wenn eine externe API einen 500-Fehler zurückgibt oder in einen Timeout läuft, wiederholen die meisten Agent-Frameworks den Aufruf sofort. Ohne exponentielles Backoff oder Circuit Breaker kann eine einzige instabile API Dutzende Wiederholungen auslösen. Jeder Retry verbraucht eine volle Runde Prompt-Tokens plus das Reasoning des LLM darüber, warum der Aufruf fehlschlug.

Ein Entwickler berichtete, morgens eine 500-Dollar-OpenAI-Rechnung vorzufinden, weil sein Agent die ganze Nacht in einer Schleife hing. Der Agent traf auf eine Rate-limitierte API, wiederholte den Aufruf endlos, und jeder Versuch enthielt den vollständigen Konversationskontext plus einen neuen Reasoning-Schritt.

Der Fix ist eine dreistufige Verteidigung:

  1. Exponentielles Backoff: Wartezeit nach jedem Fehler verdoppeln (1s, 2s, 4s, 8s…)
  2. Circuit Breaker: Nach N aufeinanderfolgenden Fehlern (typisch 3-5) das Tool komplett sperren und den Fehler melden
  3. Max-Retry-Limit: Harte Obergrenze von 3-5 Wiederholungen pro Tool-Aufruf
MAX_RETRIES = 3
BACKOFF_BASE = 2

for attempt in range(MAX_RETRIES):
    try:
        result = call_tool(tool_name, params)
        break
    except ToolError:
        if attempt == MAX_RETRIES - 1:
            return ToolFailureResult(tool_name, "max retries exceeded")
        time.sleep(BACKOFF_BASE ** attempt)

Der Unterschied zwischen einem Agenten mit und ohne Retry-Schutz ist oft der Unterschied zwischen einer 0,05-Euro-Aufgabe und einer 40-Euro-Aufgabe.

Muster 3: Context-Window-Bloat

Jeder Token im Context-Window kostet bei jedem LLM-Aufruf Geld. Ein Agent, der seine vollständige Konversationshistorie durch 20 Reasoning-Schritte schleppt, zahlt für diese Historie 20 Mal. Eine 20-Turn-Konversation umfasst typischerweise rund 50.000 Tokens. Bei Claude Opus 4.5 Preisen (15 Dollar pro Million Input-Tokens) sind das 0,75 Dollar pro Reasoning-Schritt allein für den historischen Kontext, bevor der Agent überhaupt mit dem aktuellen Schritt beginnt.

Redis’ Forschung zur LLM-Token-Optimierung zeigt, dass Summary-Kompression den Context um etwa 90 % reduzieren kann. Aus 50.000 Tokens werden 5.000, was circa 0,67 Dollar pro Schritt spart. Über 20 Schritte sind das 13,40 Dollar Ersparnis bei einer einzigen Konversation.

Praktische Strategien für Context-Management:

  • Sliding Window: Nur die letzten N Turns behalten, nicht die komplette Historie
  • Summary-Kompression: Nach 5-10 Turns die volle Historie durch eine komprimierte Zusammenfassung ersetzen
  • Selektiver Kontext: Nur Tool-Ergebnisse einbeziehen, die für den aktuellen Schritt relevant sind
  • Strukturierter Speicher: Schlüsselfakten im JSON-Format ablegen statt rohen Konversationstext mitzuschleppen

Der Aufwand für einen Kompressionsschritt ist trivial im Vergleich zu den Kosten, 50K Tokens durch jeden nachfolgenden LLM-Aufruf zu schleifen.

Weiterlesen: Agentic AI Observability: Warum Monitoring zur Control Plane wird

Muster 4: Intent-Annahme ohne Rückfrage

Agenten sind darauf trainiert, hilfreich zu sein. Das bedeutet in der Praxis: Sie raten, was der Nutzer will, statt nachzufragen. Bei einer mehrdeutigen Anfrage sollte ein gut designter Agent eine klärende Frage stellen. Stattdessen nimmt er einen Intent an, führt einen vollständigen mehrstufigen Plan auf Basis dieser Annahme aus und präsentiert das Ergebnis. War die Annahme falsch (was häufig vorkommt), läuft die gesamte Kette erneut.

Das ist teuer, weil die verschwendete Arbeit nicht nur ein einzelner LLM-Aufruf ist. Es ist die gesamte Tool-Kette: API-Aufrufe, Datenbankabfragen, Datei-Reads und mehrere Reasoning-Schritte, alles für ein Ergebnis, das der Nutzer nicht wollte.

Der Fix ist ein Intent-Bestätigungsschritt bei mehrdeutigen Anfragen. Bevor ein mehrstufiger Plan ausgeführt wird, der über einen Schwellenwert (etwa 10.000 Tokens) hinausgeht, sollte der Agent seinen Plan präsentieren und den Nutzer zur Bestätigung auffordern:

if estimated_cost > CONFIRMATION_THRESHOLD:
    plan = agent.generate_plan(user_request)
    user_confirmed = await ask_user(
        f"Ich werde {plan.summary}. Das umfasst {plan.step_count} Schritte. Fortfahren?"
    )
    if not user_confirmed:
        plan = agent.revise_plan(user_feedback)

Dieses Muster verbessert auch die Nutzerzufriedenheit, da Nutzer lieber einmal gefragt werden als schnell eine falsche Antwort zu erhalten.

Muster 5: Überteures Reasoning für einfache Aufgaben

Nicht jeder Agent-Schritt braucht ein Frontier-Modell mit Chain-of-Thought-Reasoning. Klassifikation, Extraktion, Formatierung und einfache Lookups laufen auf kleineren, günstigeren Modellen genauso gut. DataCamps Analyse zu LLM-Kostenreduktion zeigt, dass 60-70 % der Routine-Agent-Aufgaben wie Klassifikation und Extraktion kein Premium-Modell benötigen.

Die Rechnung ist deutlich. Claude Opus 4.5 kostet 15/75 Dollar pro Million Tokens (Input/Output). Claude Haiku 3.5 kostet 0,80/4 Dollar. Das ist ein Preisunterschied von Faktor 19. Wenn 65 % der Schritte Ihres Agenten auf dem günstigeren Modell laufen können, senken Sie die gesamten Inferenzkosten um rund 60 %.

Die Umsetzung ist ein Model-Router, der für jeden Schritt das günstigste geeignete Modell wählt:

def route_model(task_type, complexity_score):
    if task_type in ["classify", "extract", "format"]:
        return "claude-haiku-3.5"
    if complexity_score < 0.4:
        return "claude-sonnet-4"
    return "claude-opus-4.5"

Bei einer Agent-Rechnung von 1.000 Euro pro Monat spart Model-Routing allein circa 500 Euro durch intelligente Tier-Auswahl.

Wie Sie messen, wo Ihr Budget hingeht

Verschwendung, die man nicht sehen kann, kann man nicht beheben. Bevor Sie eine Optimierung anwenden, instrumentieren Sie Ihre Agenten für Kosten pro Schritt, nicht nur Kosten pro Anfrage.

Token-Accounting pro Schritt

Jeder Tool-Aufruf, jeder Reasoning-Schritt und jeder LLM-Aufruf sollte protokollieren:

  • Input-Token-Anzahl
  • Output-Token-Anzahl
  • Verwendetes Modell
  • Ausführungszeit
  • Ob das Ergebnis gecacht war

Das liefert eine Kostenaufschlüsselung pro Aufgabenschritt und zeigt sofort, welche Schritte teuer sind und ob diese Kosten gerechtfertigt sind.

Kostenanomalie-Erkennung

Setzen Sie Baselines, was jeder Aufgabentyp kosten sollte. Ein Kunden-Lookup sollte 0,02-0,05 Euro kosten. Kostet er 0,50 Euro, stimmt etwas nicht. Rate-of-Change-Alerts, die bei 3x des Tagesdurchschnitts auslösen, fangen außer Kontrolle geratene Schleifen ab, bevor sie zur 500-Euro-Rechnung werden.

Galileos Forschung zu Agentic-AI-Kosten zeigt, dass 40 % der Agentic-AI-Projekte vor dem Produktivbetrieb scheitern, oft weil Kostenspiralen während der Entwicklung nicht erkannt wurden. Für Teams im DACH-Raum, die unter den Transparenzanforderungen des EU AI Act arbeiten, hat die Dokumentation von Ressourcenverbrauch eine zusätzliche regulatorische Dimension.

Weiterlesen: KI-Agenten testen: Qualitätssicherung nicht-deterministischer Systeme

Der Zinseszinseffekt: Was die Behebung aller fünf Muster bewirkt

Jede Optimierung verstärkt die anderen. Hier eine realistische Aufschlüsselung für einen Agenten mit 10.000 Euro Monatskosten:

OptimierungEinsparungMonatlicher Effekt
Tool-Result-Caching30-50 % der Tool-Aufrufe eliminiert1.500-2.500 €
Retry-Schutz90 %+ Reduktion der Retry-Kosten500-1.000 €
Context-Pruning60-90 % Reduktion der Context-Tokens1.500-3.000 €
Intent-Bestätigung20-30 % weniger verschwendete Komplett-Durchläufe1.000-1.500 €
Model-Routing50-60 % Reduktion der Inferenzkosten2.000-3.000 €

Kombiniert reduzieren diese Optimierungen die Agent-Compute-Kosten typischerweise um 55-75 %. Der 10.000-Euro-Agent sinkt auf 2.500-4.500 Euro, ohne Qualitätsverlust.

Die Reihenfolge zählt. Beginnen Sie mit Model-Routing und Tool-Caching, weil diese den größten Einspareffekt bei geringstem Engineering-Aufwand liefern. Laut Praktikern lösen diese beiden Muster allein 80 % der Kostenprobleme. Fügen Sie Context-Pruning, Retry-Schutz und Intent-Bestätigung hinzu, wenn Ihre Agent-Komplexität wächst.

Die Agenten, die im Produktivbetrieb überleben, sind nicht die mit den meisten Fähigkeiten. Es sind die, die dieselbe Arbeit für einen Bruchteil der Kosten erledigen. Compute-Effizienz ist kein Nice-to-have. Für jedes Team, das Agenten im großen Stil betreibt, ist sie der Unterschied zwischen einem tragfähigen Produkt und einem Fass ohne Boden.

Weiterlesen: KI-Agent FinOps: Cloud-Kosten managen wenn Agenten Budgets verbrennen

Häufig gestellte Fragen

Warum verschwenden KI-Agenten so viel Rechenleistung?

KI-Agenten verschwenden 40-70 % der Rechenleistung durch fünf Hauptmuster: redundante Tool-Aufrufe (dieselbe API mehrfach für dieselben Daten aufrufen), Retry-Stürme ohne Backoff (fehlgeschlagene Aufrufe endlos wiederholen), Context-Window-Bloat (vollständige Konversationshistorie durch jeden Reasoning-Schritt schleppen), Intent-Annahme (falsche Pläne ausführen statt Rückfragen zu stellen) und überteures Reasoning bei einfachen Aufgaben (teure Modelle für simple Klassifikation oder Extraktion verwenden).

Wie viel kann ich durch Optimierung der KI-Agent-Rechenkosten sparen?

Teams, die alle fünf Optimierungen implementieren (Tool-Caching, Retry-Schutz, Context-Pruning, Intent-Bestätigung und Model-Routing), reduzieren die Agent-Rechenkosten typischerweise um 55-75 %. Model-Routing allein spart 50-60 % bei Inferenzkosten. Tool-Result-Caching eliminiert 30-50 % redundanter API-Aufrufe. Der Einstieg mit Model-Routing und Tool-Caching adressiert bereits circa 80 % der Kostenprobleme.

Was ist Context-Window-Bloat bei KI-Agenten?

Context-Window-Bloat entsteht, wenn ein KI-Agent seine vollständige Konversationshistorie durch jeden Reasoning-Schritt mitführt. Eine 20-Turn-Konversation mit 50.000 Tokens kostet bei jedem nachfolgenden LLM-Aufruf Geld. Über 20 Reasoning-Schritte bei Claude-Opus-Preisen summiert sich das auf über 13 Dollar unnötiger Kosten. Der Fix: Summary-Kompression (reduziert Context um 90 %), Sliding Windows (nur aktuelle Turns behalten) und selektiver Kontext (nur relevante Tool-Ergebnisse pro Schritt einbeziehen).

Wie erkenne ich Rechen-Verschwendung bei KI-Agenten?

Instrumentieren Sie jeden Agent-Schritt mit Logging für Input-Tokens, Output-Tokens, verwendetes Modell, Ausführungszeit und Cache-Hit/Miss. Setzen Sie Kosten-Baselines pro Aufgabentyp und konfigurieren Sie Alerts bei Anomalien (z.B. eine Aufgabe, die das 3-fache des Durchschnitts kostet). Tracken Sie Kosten pro Schritt statt nur pro Anfrage, um zu identifizieren, welche Schritte teuer sind.

Welche Optimierung sollte ich zuerst umsetzen?

Beginnen Sie mit Model-Routing und Tool-Result-Caching. Model-Routing liefert die größte Kostenreduktion bei geringstem Aufwand, indem einfache Aufgaben wie Klassifikation auf günstigere Modelle geleitet werden (Claude Haiku bei 0,80 Dollar/Million Tokens statt Claude Opus bei 15 Dollar/Million Tokens). Kombiniert mit Tool-Caching decken diese beiden Techniken laut Praktikern circa 80 % der typischen Agent-Kostenprobleme ab.