Foto von Taylor Vick auf Unsplash Source

Redis entwickelt sich zur Standard-Infrastruktur für Multi-Agent-KI-Systeme. Der Grund ist pragmatisch: Agent-Orchestrierung ist ein Echtzeit-State-Management-Problem, und genau dafür wurde Redis gebaut. Wenn Research-Agent, Planungs-Agent und Ausführungs-Agent Kontext teilen, Aufgaben übergeben und sich nicht gegenseitig in die Quere kommen sollen, braucht man Sub-Millisekunden-Zugriffe, persistenten State und ein Messaging-Rückgrat. Redis liefert alle drei Bausteine, ohne dass man Postgres, Kafka und eine Vektordatenbank zu einer fragilen Konstruktion zusammenkleben muss.

Warum das wichtig ist: 40 % der Agentic-AI-Projekte werden laut Prognosen bis 2027 eingestellt, weil die Infrastrukturkomplexität unterschätzt wurde. Das Agent-Framework bekommt die ganze Aufmerksamkeit. Aber die Datenschicht darunter entscheidet, ob das System in Produktion funktioniert.

Weiterlesen: KI-Agent-Frameworks im Vergleich: LangGraph, CrewAI, AutoGen

Warum Multi-Agent-Systeme ohne Echtzeit-Datenschicht scheitern

Ein einzelner Agent, der ein LLM und ein paar Tools aufruft, ist überschaubar. Kontext rein, Antwort raus, vielleicht die Konversation in einer Datenbank speichern. Sobald ein zweiter Agent dazukommt, hat man ein verteiltes Systemsproblem.

Konkretes Beispiel: Ein Kundenservice-Workflow bei einem deutschen Mittelständler. Ein Triage-Agent klassifiziert eingehende Tickets, ein Research-Agent zieht relevante Dokumentation, und ein Antwort-Agent formuliert die Rückmeldung. Diese drei Agenten müssen sich in Echtzeit koordinieren. Der Research-Agent muss wissen, was der Triage-Agent gefunden hat. Der Antwort-Agent braucht die Recherche-Ergebnisse plus den Original-Ticket-Kontext. Stockt eine dieser Übergaben oder geht State verloren, bekommt der Kunde eine falsche oder gar keine Antwort.

Die konkreten Infrastruktur-Herausforderungen:

State-Synchronisation. Mehrere Agenten, die gleichzeitig gemeinsamen State lesen und schreiben, erzeugen Race Conditions. Wenn der Research-Agent einen Ticket-Status aktualisiert, während der Triage-Agent noch klassifiziert, entsteht korrupter State. Hier braucht man atomare Operationen mit Sub-Millisekunden-Latenz.

Kontext-Weitergabe. Jeder Agent hat sein eigenes Kontextfenster. Der Orchestrator muss die richtigen Informationen zum richtigen Zeitpunkt an den richtigen Agenten weiterleiten, ohne Token-Limits zu sprengen. Dafür braucht man einen schnellen Key-Value-Store, den Agenten selektiv abfragen können.

Task-Koordination. Agenten brauchen ein zuverlässiges Messaging-System für Übergaben, Status-Updates und Fehlersignale. Alle paar Sekunden eine Datenbank abzufragen ist keine Echtzeit-Koordination. Man braucht Event-basiertes Messaging, das Agent-Aktionen sofort auslöst.

Der traditionelle Ansatz schraubt Postgres für State, RabbitMQ für Messaging, Pinecone für Vektorsuche und Redis fürs Caching zusammen. Das sind vier Systeme, die man deployen, überwachen und konsistent halten muss. Redis konsolidiert diese Funktionen in einer einzigen Infrastrukturschicht.

Redis als Agent State Machine

Redis löst das State-Problem durch drei Primitive, die direkt auf Agent-Orchestrierung abbilden.

Sub-Millisekunden-State-Zugriff

Redis speichert Agent-State im Arbeitsspeicher mit typischer Lese/Schreib-Latenz unter 1 Millisekunde. Wenn der Planungs-Agent das aktuelle Ziel, den letzten Tool-Output oder den aktiven Session-Kontext prüfen muss, liefert Redis die Daten zurück, bevor das Agent-Framework überhaupt den nächsten Prompt konstruiert.

In der Praxis bedeutet das: Redis Hashes für Agent-Lifecycle-State nutzen, also aktuelle Aufgabe, Status, zugewiesene Sub-Agenten und Checkpoint-Daten. Jeder Agent liest und aktualisiert seinen eigenen Hash, und der Orchestrator überwacht State-Übergänge via Keyspace Notifications.

import redis

r = redis.Redis(host='localhost', port=6379, decode_responses=True)

# Agent-State als Hash speichern
r.hset("agent:research-01", mapping={
    "status": "executing",
    "current_task": "docs_fuer_ticket_4821_laden",
    "assigned_by": "agent:triage-01",
    "checkpoint": "schritt_3_von_5",
    "last_updated": "2026-03-20T14:22:00Z"
})

# Anderer Agent liest sofort
state = r.hgetall("agent:research-01")

Redis Streams für Event-basierte Koordination

Redis Streams bilden das Messaging-Rückgrat. Im Gegensatz zu einfachem Pub/Sub (Fire-and-Forget) persistieren Streams Nachrichten und unterstützen Consumer Groups. Wenn ein Agent mitten in einer Aufgabe abstürzt, übernimmt ein anderer Agent genau an der richtigen Stelle.

Consumer Groups sind das Schlüsselfeature. Man erstellt eine Gruppe von Research-Agenten, die sich die eingehende Arbeit teilen. Redis verteilt Nachrichten automatisch über die Gruppe und verfolgt, welche Nachrichten jeder Agent quittiert hat. Quittiert ein Agent nicht innerhalb eines Timeouts, weist Redis die Nachricht einem anderen Consumer zu.

Dieses Pattern ersetzt Kafka für die meisten Agent-Orchestrierungs-Workloads. Man verliert Kafkas Multi-Datacenter-Replikation und extremen Durchsatz, gewinnt aber Einfachheit und Ko-Lokation mit State- und Memory-Daten. Für Systeme unter 100.000 Nachrichten pro Sekunde (und das deckt praktisch jedes Agent-Deployment ab) reicht Redis Streams vollkommen aus.

Pub/Sub für Echtzeit-Signale

Redis Pub/Sub übernimmt die leichtgewichtigen, flüchtigen Signale, die Agenten ständig austauschen: “Aufgabe erledigt,” “Fehler aufgetreten,” “Benutzer hat neue Eingabe gemacht.” Diese Nachrichten brauchen keine Persistenz. Sie brauchen Geschwindigkeit.

Mit Sub-Millisekunden-Zustellung an tausende gleichzeitige Subscriber fungiert Pub/Sub als Nervensystem der Multi-Agent-Architektur. Der Orchestrator publiziert eine Aufgabenzuweisung; der zugewiesene Agent empfängt sie sofort und beginnt die Arbeit.

Weiterlesen: MCP und A2A: Die Protokolle für KI-Agent-Kommunikation

Drei Memory-Ebenen in einer Infrastruktur

Agent Memory ist der Bereich, in dem sich Redis am stärksten differenziert. Die meisten Teams bauen am Ende drei separate Memory-Systeme für ihre Agenten. Redis implementiert alle drei nativ.

Kurzzeitspeicher: Session-Kontext

Kurzzeitspeicher hält den Arbeitskontext für eine aktive Konversation oder Task-Session. Redis speichert das als JSON-Objekte oder Hashes mit TTL (Time-to-Live) Ablaufzeit. Endet eine Session, verfallen die Daten automatisch.

Der Redis Agent Memory Server, Anfang 2026 als Open Source veröffentlicht, formalisiert das mit einer Zwei-Ebenen-Architektur. Working Memory nutzt In-Memory-Datenstrukturen für sofortigen Zugriff. Er bietet sowohl eine REST-API als auch eine MCP-Server-Schnittstelle, sodass jedes MCP-kompatible Agent-Framework ihn direkt nutzen kann.

Langzeitspeicher: Semantische Suche

Langzeitspeicher überdauert Sessions. Benutzerpräferenzen, historische Interaktionsmuster, gelernte Fakten über den Benutzer oder die Domäne. Redis speichert diese als Vektor-Embeddings und ruft sie über die integrierte Vektorsuche ab.

Hier ersetzt Redis für viele Anwendungsfälle eine eigenständige Vektordatenbank wie Pinecone oder Weaviate. Man speichert das Embedding zusammen mit strukturierten Metadaten in derselben Redis-Instanz. Eine einzige Abfrage ruft semantisch ähnliche Erinnerungen ab, gefiltert nach Benutzer-ID, Zeitstempel oder Thema.

Episodisches Gedächtnis: Spezifische Interaktionen abrufen

Episodisches Gedächtnis ermöglicht Agenten, spezifische vergangene Ereignisse mit ihren vollständigen zeitlichen und kontextuellen Informationen abzurufen. “Beim letzten Mal, als dieser Benutzer nach der Abrechnung fragte, war die Lösung eine Gutschrift.” Redis implementiert das durch eine Kombination aus Vektor-Ähnlichkeitssuche und Metadaten-Filterung, sodass Agenten relevante vergangene Episoden finden können, ohne jede Interaktion zu durchsuchen.

Der Redis Agent Memory Server verarbeitet alle drei Ebenen und fügt automatische Aufbereitung hinzu: Themenextraktion, Entitätserkennung und Konversationszusammenfassung durch das LLM selbst. Man konfiguriert die gewünschten Extraktionsstrategien, und der Server übernimmt die Pipeline von der rohen Konversation bis zum strukturierten, durchsuchbaren Memory.

Für Unternehmen im DACH-Raum ist dabei besonders relevant: Wenn Agent Memory personenbezogene Daten verarbeitet, greift die DSGVO. Redis’ TTL-basierte automatische Datenlöschung und die Möglichkeit, Memory-Daten auf europäischen Servern zu hosten, erleichtern die Compliance erheblich.

Weiterlesen: KI-Agent-Memory und Knowledge Graphs

Redis vs. Postgres vs. Kafka: Die richtige Infrastruktur wählen

Die Frage ist nicht, welches Tool “das beste” ist. Sondern welche Kombination zum eigenen Workload passt.

Redis allein funktioniert, wenn Agenten schnellen State, Memory, Messaging und Vektorsuche in einem einzigen System brauchen. Das deckt die meisten Agent-Deployments mit unter 50 gleichzeitigen Agenten ab. Redis LangCache bietet semantisches Caching, das LLM-API-Aufrufe um bis zu 70 % reduziert. Allein das kann die Infrastrukturentscheidung rechtfertigen.

Redis + Postgres ist das häufigste Produktionsmuster. Redis übernimmt den heißen State, Session Memory und Echtzeit-Koordination. Postgres übernimmt dauerhafte Speicherung, Audit-Logs und komplexe relationale Abfragen. LangGraphs Checkpointer-System unterstützt beide Backends, sodass man Redis für schnellen Checkpoint-Zugriff und Postgres für langfristige Checkpoint-Archivierung nutzen kann.

Redis + Kafka ist sinnvoll, wenn man garantierte Zustellung über mehrere Rechenzentren, Replay von monatelanger Event-History oder Durchsatz über 100.000 Nachrichten pro Sekunde braucht. Kafka wird zum dauerhaften Event-Log; Redis bleibt die schnelle State-Schicht und der Memory-Store.

Postgres allein kann für einfachere Agent-Systeme funktionieren. Mit pgvector für Embeddings, JSONB für semi-strukturierten State und LISTEN/NOTIFY für einfaches Messaging bewältigt Postgres moderate Workloads. Aber man stößt an Latenz-Grenzen, sobald Agenten in engen Schleifen State lesen und schreiben. Für Agent-Orchestrierung konkret hat Redis gegenüber Postgres deutlich besser abgeschnitten bei den schnellen Lese/Schreib-Mustern, die Agenten erzeugen.

LangGraph + Redis in der Praxis

Die meisten produktiven Agent-Systeme nutzen heute LangGraph als Orchestrierungs-Framework mit Redis als State-Backend. So sieht die Architektur aus.

LangGraph modelliert Agenten als Knoten in einem State-Graphen. Bei jedem Knotenübergang sichert LangGraph den Agent-State als Checkpoint. Standardmäßig nutzt es einen In-Memory-Store, der beim Prozessneustart verschwindet. In Produktion tauscht man einen Redis-Checkpointer ein, der Persistenz und Geschwindigkeit liefert.

from langgraph.checkpoint.redis import RedisSaver

# Redis-backed Checkpointer für LangGraph
checkpointer = RedisSaver(url="redis://localhost:6379")

# Agent-Graph mit Redis-Persistenz aufbauen
graph = StateGraph(AgentState)
graph.add_node("research", research_agent)
graph.add_node("analyze", analysis_agent)
graph.add_node("respond", response_agent)

graph.add_edge("research", "analyze")
graph.add_edge("analyze", "respond")

app = graph.compile(checkpointer=checkpointer)

Jeder State-Übergang wird jetzt in Redis persistiert. Stürzt der Prozess ab, setzt man beim letzten Checkpoint fort. Muss man einen fehlgeschlagenen Lauf debuggen, spielt man von jedem beliebigen Checkpoint in der Sequenz ab. Das ist dasselbe Muster, das Klarna nutzt für Kundenservice-Agenten, die Millionen Konversationen verarbeiten.

Der Redis Agent Memory Server bindet sich als MCP-Tool ein, sodass jeder Agent im Graphen Erinnerungen über das standardisierte Model Context Protocol speichern und abrufen kann. Kein individueller Integrationscode nötig.

Für Teams, die gerade anfangen: Mit Redis für State und Session Memory starten. Postgres für Audit-Logs und Langzeitspeicherung hinzufügen, sobald Compliance-Anforderungen das verlangen (im DACH-Raum mit EU AI Act Transparenzanforderungen oft früher als gedacht). Kafka erst einführen, wenn das Nachrichtenvolumen oder die geografische Verteilung es erfordert. Dieser inkrementelle Ansatz verhindert die Infrastruktur-Ausbreitung, die die meisten Agent-Projekte vor dem Produktionseinsatz scheitern lässt.

Weiterlesen: Was sind KI-Agenten? Ein praktischer Leitfaden für Entscheider

Häufig gestellte Fragen

Warum Redis statt Postgres für KI-Agent State Management?

Redis speichert Daten im Arbeitsspeicher und liefert Sub-Millisekunden Lese- und Schreib-Latenz. KI-Agenten lesen und schreiben State in engen Schleifen während der Orchestrierung, und Postgres’ festplattenbasierte Speicherung fügt Latenz hinzu, die sich bei jeder Agent-Interaktion aufsummiert. Redis bietet zudem eingebautes Pub/Sub und Streams für Agent-Messaging, wodurch ein separater Message Broker entfällt.

Kann Redis Langzeit-Agent-Memory oder nur Caching?

Redis unterstützt persistentes Langzeit-Memory über die integrierte Vektorsuchfunktion und den Redis Agent Memory Server. Agenten können Konversationszusammenfassungen, Benutzerpräferenzen und episodische Erinnerungen als Vektor-Embeddings mit Metadaten speichern und über semantische Ähnlichkeitssuche sitzungsübergreifend abrufen.

Wie schneidet Redis Streams im Vergleich zu Kafka für Multi-Agent-Koordination ab?

Redis Streams bewältigt die meisten Agent-Koordinations-Workloads unter 100.000 Nachrichten pro Sekunde. Es unterstützt Consumer Groups, Nachrichtenbestätigung und automatische Neuzuweisung fehlgeschlagener Aufgaben. Kafka ist besser für Multi-Datacenter-Replikation, monatelanges Event-Replay oder extremen Durchsatz. Für die meisten Agent-Deployments bietet Redis Streams ausreichende Funktionalität bei weniger operativem Aufwand.

Was ist der Redis Agent Memory Server?

Der Redis Agent Memory Server ist ein Open-Source-Projekt, das eine Zwei-Ebenen-Memory-Architektur für KI-Agenten bereitstellt. Es nutzt In-Memory-Datenstrukturen für sofortigen Kurzzeitzugriff und Vektorsuche für semantisches Langzeit-Retrieval. Es bietet sowohl eine REST-API als auch eine MCP-Server-Schnittstelle und integriert sich mit LangChain, LangGraph und jedem MCP-kompatiblen Agent-Framework.

Welche Agent-Frameworks integrieren sich mit Redis für State Management?

Redis integriert sich mit über 30 Agent-Frameworks. LangGraph unterstützt Redis als Checkpointer-Backend für State-Persistenz. LangChain und LlamaIndex unterstützen Redis für Vektor-Memory und Caching. Der Redis Agent Memory Server bietet MCP- und REST-Schnittstellen, die mit jedem Framework funktionieren, das diese Protokolle unterstützt, einschließlich CrewAI und AutoGen.