Foto von Brett Sayles auf Pexels (freie Lizenz) Source

Jeder zweite Reddit-Thread zum Thema KI-Agent-Gedächtnis endet Anfang 2026 in der gleichen Debatte: “Nimm einfach Mem0” gegen “Zeps temporale Graphen sind die einzig echte Lösung” gegen “Redis reicht völlig, macht es nicht komplizierter als nötig.” Währenddessen hat Neo4j im Februar still eine neue Agent-Memory-Bibliothek veröffentlicht, über die noch kaum jemand spricht.

Die ehrliche Antwort: Keins dieser Tools ist universell das beste. Mem0 gewinnt bei der Einfachheit, Zep bei temporalem Reasoning, Redis bei der Geschwindigkeit und Neo4j bei der Beziehungstiefe. Die richtige Wahl hängt davon ab, was der Agent tatsächlich speichern muss und wie er diese Erinnerungen abruft.

Hier sind die Fakten zu jedem Tool: Funktionsumfang, Preise und was die Benchmark-Zahlen tatsächlich aussagen, wenn man das Marketing herausfiltert.

Weiterlesen: KI-Agent-Memory 2026: Von RAG zur persistenten Kontextarchitektur

Die Memory-Landschaft: Ein Überblick

Bevor wir ins Detail gehen, hier das Gesamtbild. Diese vier Tools besetzen unterschiedliche Positionen im Agent-Memory-Stack:

ToolTypGitHub-StarsAm besten fürEinstiegspreis
Mem0Verwaltete Memory-Plattform50.600Einfache Präferenz-/FaktenspeicherungKostenlos / 19 $/Monat
Zep (Graphiti)Temporaler Wissensgraph24.000Zeitabhängige BeziehungenKostenlos / 25 $/Monat
RedisIn-Memory-DatenspeicherN/A (Infrastruktur)Geschwindigkeitskritischer AbrufKostenlos (OSS)
Neo4j Agent MemoryGraph-natives Memory55Tiefe Entity-BeziehungenKostenlos (OSS)

Zwei Dinge fallen sofort auf. Erstens: Mem0 und Zep sind verwaltete Plattformen mit Cloud-Abrechnung. Redis und Neo4js Agent-Memory-Projekt sind Open-Source-Infrastruktur, die man selbst betreibt. Zweitens: Die GitHub-Stars zeigen Marktaufmerksamkeit, nicht Qualität. Mem0 hat 50.000 Stars und eine 24-Millionen-Dollar-Finanzierungsrunde. Neo4js Agent-Memory hat 55 Stars, bietet aber technisch gesehen tiefere Fähigkeiten. Das Projekt startete erst im Februar 2026 und hatte schlicht noch keine Zeit, eine Community aufzubauen.

Die Stack Overflow Developer Survey 2025 ergab, dass 43 % der Entwickler, die KI-Agenten bauen, Redis als Datenspeicher nutzen. Das bedeutet nicht, dass Redis das beste Memory-System ist. Es bedeutet, dass Redis bereits in den meisten Produktions-Stacks läuft und Teams es als Erstes greifen.

Mem0: Drei Zeilen Code zum Agent-Gedächtnis

Mem0 ist der einfachste Einstieg. Client initialisieren, add() mit einer Nachricht und User-ID aufrufen, fertig. Das System extrahiert Fakten, speichert sie in einer Vektordatenbank und ruft relevante Erinnerungen beim nächsten Aufruf ab. Es braucht tatsächlich drei Zeilen Python, um einem Chatbot ein persistentes Gedächtnis zu geben.

from mem0 import MemoryClient
client = MemoryClient(api_key="your-key")
client.add("Nutzer bevorzugt Dark Mode, keine E-Mail-Benachrichtigungen", user_id="alice")

Im Hintergrund verarbeitet Mem0 die extrahierten Fakten über eine Vektordatenbank (Qdrant, Chroma, pgvector oder Redis), einen Key-Value-Store und optional eine Graphdatenbank. Diese Graph-Schicht ist wichtig, dazu gleich mehr.

Die Zahlen

Mem0 schloss im Oktober 2025 eine Series-A-Runde über 24 Millionen Dollar ab, angeführt von Basis Set Ventures mit Beteiligung von Y Combinator. API-Aufrufe wuchsen von 35 Millionen (Q1 2025) auf 186 Millionen (Q3 2025). AWS wählte Mem0 als exklusiven Memory-Provider für das Strands Agents SDK, eine starke Enterprise-Referenz.

Preise in der Praxis

TierMonatliche KostenMemoriesRetrieval-Aufrufe/Monat
HobbyKostenlos10.0001.000
Starter19 $50.0005.000
Pro249 $Unbegrenzt50.000
EnterpriseIndividuellUnbegrenztUnbegrenzt

Der Haken: Mem0s Graph-Memory-Feature, das Entity-Beziehungen und Multi-Hop-Abfragen ermöglicht, gibt es erst ab dem Pro-Tier für 249 Dollar im Monat. Hobby- und Starter-Nutzer bekommen nur Vektorsuche. Wer das Feature braucht, das Mem0 von einem besseren Embedding-Store unterscheidet, zahlt mindestens 3.000 Dollar pro Jahr.

Für deutsche Unternehmen kommt hinzu: Mem0 ist ein US-amerikanischer Cloud-Dienst. Wer personenbezogene Daten als Agent-Erinnerungen speichert, muss die DSGVO-Konformität prüfen. Mem0 bietet keine EU-Region für das Hosting, was je nach Anwendungsfall ein Ausschlusskriterium sein kann.

Die Benchmark-Kontroverse

Mem0 veröffentlichte ein Research Paper mit 66,9 % auf dem LoCoMo-Benchmark (Long Conversation Memory, 81 Frage-Antwort-Paare) und schlug damit OpenAIs natives Memory mit 52,9 %. Dazu 91 % weniger p95-Latenz und 90 % Token-Kostenersparnis gegenüber Full-Context-Ansätzen.

Unabhängige Tests zeigen ein anderes Bild. Drittanbieter-Benchmarks setzen Mem0 eher bei 58 % auf LoCoMo, immer noch besser als alles in das Kontextfenster zu stopfen, aber deutlich unter der selbstberichteten Zahl.

Weiterlesen: KI-Agent-Memory: Von RAG zu Knowledge Graphs

Zep und Graphiti: Wenn Fakten ein Verfallsdatum haben

Zep verfolgt einen grundlegend anderen Ansatz. Statt Erinnerungen als Vektoren zu speichern und auf gute Kosinusähnlichkeit zu hoffen, baut Zep einen temporalen Wissensgraphen, in dem jeder Fakt ein Gültigkeitsfenster hat. Wenn ein Kunde im Januar “Ich nutze AWS” sagte und im März “Wir sind zu GCP migriert”, speichert Zep nicht zwei widersprüchliche Fakten. Es markiert den Januar-Fakt als durch die März-Aussage ungültig und gibt nur die aktuelle Wahrheit zurück.

Die Open-Source-Engine dahinter ist Graphiti mit 24.000 GitHub-Stars. Graphiti unterstützt Neo4j, FalkorDB, Kuzu und Amazon Neptune als Graph-Backends. Es verarbeitet neue Daten inkrementell (sofortige Integration, keine Batch-Neuberechnung) und kombiniert semantische Embeddings, BM25-Keyword-Suche und Graph-Traversierung.

Wo sich Zep von Mem0 unterscheidet

Der entscheidende Architekturunterschied: Zep kann strukturierte Geschäftsdaten aufnehmen, nicht nur Chat-Nachrichten. JSON-Payloads aus CRM-Systemen, Bestelldatenbanken oder Support-Ticket-Queues lassen sich direkt einspeisen. Der Agent weiß dann nicht nur, was der Kunde im Chat gesagt hat, sondern auch, dass er das Produkt drei Tage nach dem begeisterten Gespräch zurückgeschickt hat. Dieses Rückgabe-Event aus dem Bestellsystem invalidiert den “liebt das Produkt”-Fakt aus dem Chat.

Für DACH-Unternehmen mit SAP-, Salesforce- oder HubSpot-Integrationen ist das relevant: Zep kann als zentrale Gedächtnisschicht fungieren, die Daten aus verschiedenen Systemen zusammenführt. Die Graphiti-Engine ist Open Source und kann on-premise betrieben werden, was die DSGVO-Compliance deutlich einfacher macht als bei Mem0.

Preise

TierMonatliche KostenCredits/MonatRate-Limit
Free0 $1.000Niedrig, variabel
Flex25 $20.000600 Req/Min
Flex Plus475 $300.0001.000 Req/Min
EnterpriseIndividuellIndividuellGarantiert

Ein Credit entspricht einer Episode (eine Nachricht oder ein JSON-Payload bis 350 Bytes; größere Payloads werden in Vielfachen abgerechnet). Abgerechnet wird die Aufnahme, nicht die Speicherung.

Benchmark-Ehrlichkeit

Zep berichtete selbst etwa 85 % auf LoCoMo, aber ein GitHub-Issue in ihrem Research-Repository stellte die Zahl infrage. Eine korrigierte Auswertung kam auf 58,44 %. Sowohl Mem0 als auch Zep haben Glaubwürdigkeitsprobleme bei ihren Benchmarks. Selbstberichtete Zahlen von Unternehmen, die Memory-Produkte verkaufen, verdienen grundsätzlich ein Sternchen.

Redis: Die Speed-Layer unter allem anderen

Redis ist kein Memory-Framework. Es ist die Infrastruktur, auf der Memory-Frameworks laufen. Mem0 unterstützt Redis als Vektor-Backend. Graphiti kann Redis für Caching nutzen. Wenn Teams sagen, sie “nutzen Redis für Agent-Memory”, meinen sie meistens, dass Redis unter einer höheren Abstraktionsschicht sitzt.

Trotzdem veröffentlichte Redis Anfang 2026 einen Agent Memory Server, der als eigenständiges Memory-System funktioniert. Er bietet eine REST-API und einen MCP-Server (Model Context Protocol) mit Zwei-Ebenen-Gedächtnis: Working Memory für die aktuelle Session und Long-Term Memory über Sessions hinweg. Dazu automatische Themenextraktion, Entitätserkennung und Gesprächszusammenfassung über 100+ LLM-Provider via LiteLLM.

Warum Teams zuerst zu Redis greifen

Die Performance-Zahlen erklären die Adoption: Sub-Millisekunden-Latenz für Session-State, verglichen mit dem Bereich von zehn bis hundert Millisekunden bei Graph-Datenbank-Abfragen. Relevance AI berichtete, dass die Migration ihrer Vektorsuche zu Redis die Latenz von 2 Sekunden auf 10 Millisekunden senkte, eine Verbesserung von 99,5 %.

Redis löst auch das Memory-Lifecycle-Problem elegant über eingebaute TTL- (Time-to-Live) und Eviction-Policies. Working Memory, das nach einer Session ablaufen soll, wird automatisch bereinigt. Langzeiterinnerungen, die monatelang nicht abgerufen wurden, können schrittweise deprioritisiert werden. Keine Custom-Garbage-Collection nötig.

Redis Open Source 8 skaliert auf 1 Milliarde Vektoren. Die RedisVL (Redis Vector Library) erreichte im Dezember 2025 etwa 1 Million Downloads, eine Verzehnfachung gegenüber dem Vorjahr.

Der Trade-off

Redis liefert Geschwindigkeit und Skalierung auf Kosten der Beziehungstiefe. Erinnerungen werden als JSON-Dokumente mit Vektor-Embeddings gespeichert: schnell abzufragen, aber ohne native Multi-Hop-Entity-Traversierung wie in einer Graphdatenbank. Wenn der Agent beantworten muss “welche Kunden, die Produkt X gekauft haben, sich auch über die Lieferung in den letzten 90 Tagen beschwert haben”, reicht Redis allein nicht. Da braucht es eine Graph-Schicht obendrauf.

Weiterlesen: Context Engineering: Das Architekturmuster, das Prompt Engineering ablöst

Neo4j Agent Memory: Der neue Mitspieler

Neo4j Labs veröffentlichte neo4j-agent-memory im Februar 2026. Mit 55 GitHub-Stars ist es das unbekannteste Tool in diesem Vergleich. Es ist gleichzeitig das architektonisch ambitionierteste.

Das Projekt implementiert drei Memory-Typen: Short-Term (Gesprächshistorie), Long-Term (Fakten und Entitäten über ein POLE+O-Modell mit Person, Object, Location, Event und Organization) und Reasoning Memory (Entscheidungsspuren und Tool-Nutzungs-Audits). Die Reasoning-Schicht ist einzigartig. Kein anderes Tool in diesem Vergleich speichert, warum der Agent eine Entscheidung getroffen hat. Für Debugging und Compliance nach EU-AI-Act ist das relevant.

Technische Tiefe

Die Entity-Extraktion läuft über eine mehrstufige Pipeline: spaCy für Standard-NER, GLiNER2 für Zero-Shot-Entitätserkennung und ein LLM-Extractor für komplexe Fälle. Entity Resolution nutzt exaktes, unscharfes und semantisches Matching zur Deduplizierung über Gespräche hinweg. Beziehungsextraktion über GLiREL kommt ohne LLM-Aufrufe aus, was Kosten und Latenz senkt.

Das Projekt integriert bereits mit LangChain, Pydantic AI, LlamaIndex, CrewAI, OpenAI Agents SDK, AWS Strands, Microsoft Agent Framework und Google ADK. Diese Integrationsbreite bei 55 Stars deutet darauf hin, dass Neo4j das als fundamentale Schicht positioniert, nicht als Standalone-Produkt.

Die Einschränkung

Es ist ein Neo4j-Labs-Projekt, also experimentell. Das README sagt “not officially supported.” Man braucht eine laufende Neo4j-Instanz (AuraDB Free Tier reicht) und die Dokumentation ist dünn. Das ist ein Tool für Teams, die bereit sind, Source Code zu lesen und Early-Adopter-Risiko zu akzeptieren.

Für Teams, die bereits Neo4j in ihrem Stack haben, ist es eine natürliche Erweiterung. Für alle anderen ist der Betriebsaufwand einer Graphdatenbank nur für Agent-Memory schwer zu rechtfertigen, es sei denn, der Use Case verlangt tiefes relationales Reasoning.

Was Entwickler tatsächlich wählen

Forum-Diskussionen, Reddit-Threads und Community-Vergleiche zeigen klare Muster:

“Ich brauche Memory in 30 Minuten”: Mem0. Die API ist simpel, der Free Tier reicht zum Prototypen, und die AWS-Partnerschaft sichert Langlebigkeit. Die Grenze: Nur-Vektor-Memory (ohne das 249-Dollar-Pro-Tier) verliert Beziehungskontext.

“Mein Agent muss Fakten tracken, die sich über die Zeit ändern”: Zep/Graphiti. Temporale Fakt-Invalidierung ist das Killer-Feature. Wer Agenten baut, bei denen sich Nutzerpräferenzen, Account-Zustände oder Projektkontexte zwischen Sessions ändern, findet hier die einzige native Lösung. Die Open-Source-Graphiti-Engine ermöglicht den Betrieb ohne Cloud-Abhängigkeit, relevant für DSGVO-sensible Anwendungen.

“Geschwindigkeit ist nicht verhandelbar und wir betreiben bereits Redis”: Redis Agent Memory Server. Sub-Millisekunden-Reads, kampferprobte Infrastruktur, und das MCP-Interface verbindet jedes Agent-Framework. Graph-Traversierung fehlt, dafür stimmt die operative Einfachheit.

“Unser Agent muss über Entity-Beziehungen über Tausende Interaktionen hinweg schlussfolgern”: Neo4j Agent-Memory. Das POLE+O-Modell und die Reasoning-Traces bieten das tiefste Entity-Verständnis. Man akzeptiert das Early-Adopter-Risiko und den Betriebsaufwand einer Graphdatenbank.

Das Muster, das sich abzeichnet: Teams, die Agenten in Produktion betreiben, kombinieren zunehmend zwei dieser Tools. Redis für die geschwindigkeitskritische Working-Memory-Schicht, plus Mem0 oder Zep für die semantische/relationale Langzeitschicht. Das ist kein Over-Engineering. Es spiegelt die Realität wider, dass verschiedene Memory-Typen verschiedene Speicher-Backends brauchen.

Ein Wort zu Letta

Letta (ehemals MemGPT, 21.700 GitHub-Stars) verdient Erwähnung, auch wenn es nicht im Titel steht. Letta verfolgt einen “LLM-as-OS”-Ansatz, bei dem der Agent seine eigenen Memory-Tiers verwaltet, inklusive “Sleep-Time Compute” zur Hintergrund-Konsolidierung von Erinnerungen. Wer will, dass der Agent selbst entscheidet, was er sich merkt und was er vergisst, findet hier die ausgereifteste Umsetzung dieser Vision. Letta erreichte in unabhängigen Tests etwa 83 % auf LoCoMo, den höchsten verifizierten Wert unter den Open-Source-Tools.

Weiterlesen: KI-Agent-Frameworks im Vergleich: LangGraph, CrewAI, AutoGen

Häufig gestellte Fragen

Was ist das beste Tool für KI-Agent-Langzeitgedächtnis 2026?

Es gibt kein universell bestes Tool. Mem0 ist am einfachsten zu implementieren (3 Zeilen Code), Zep/Graphiti eignet sich am besten für temporales Reasoning, Redis ist am schnellsten für geschwindigkeitskritischen Abruf (Sub-Millisekunden-Latenz), und Neo4j Agent-Memory bietet die tiefste Entity-Beziehungsmodellierung. Viele Produktionsteams kombinieren Redis für Working Memory mit Mem0 oder Zep für Langzeitspeicherung.

Was kostet Mem0 für KI-Agent-Memory?

Mem0 bietet einen kostenlosen Hobby-Tier (10.000 Memories, 1.000 Abrufe/Monat), einen Starter-Tier für 19 Dollar/Monat (50.000 Memories), einen Pro-Tier für 249 Dollar/Monat (unbegrenzte Memories mit Graph-Memory) und individuelles Enterprise-Pricing. Das Graph-Memory-Feature erfordert mindestens den Pro-Tier für 249 Dollar/Monat.

Was ist der Unterschied zwischen Mem0 und Zep?

Mem0 speichert extrahierte Fakten als Vektoren und ruft sie per semantischer Ähnlichkeit ab. Zep baut einen temporalen Wissensgraphen, in dem jeder Fakt ein Gültigkeitsfenster hat, sodass veraltete Informationen automatisch invalidiert werden. Zep kann zudem strukturierte Geschäftsdaten (Bestellungen, Tickets) aufnehmen, nicht nur Chat-Nachrichten. Mem0 ist einfacher zu implementieren; Zep handhabt komplexe, sich ändernde Kontexte besser.

Ist Redis als KI-Agent-Gedächtnis geeignet?

Ja. Redis veröffentlichte Anfang 2026 einen Agent Memory Server mit Zwei-Ebenen-Gedächtnis (Working Memory und Long-Term Memory) über REST-API und MCP-Server. Redis liefert Sub-Millisekunden-Latenz und skaliert auf 1 Milliarde Vektoren. Allerdings fehlt native Graph-Traversierung für komplexe Entity-Beziehungen, weshalb Teams Redis oft mit einem Graph-basierten Tool für relationales Langzeitgedächtnis kombinieren.

Sind Benchmarks für KI-Agent-Memory-Tools zuverlässig?

Selbstberichtete Benchmarks von Memory-Tool-Anbietern sollten mit Vorsicht betrachtet werden. Sowohl Mem0 als auch Zep mussten Kritik an ihren LoCoMo-Scores einstecken: Unabhängige Evaluierungen zeigten deutlich niedrigere Zahlen. Mem0 berichtete 66,9 %, unabhängige Tests ergaben etwa 58 %. Zep berichtete etwa 85 %, eine korrigierte Auswertung kam auf 58,44 %. Immer nach unabhängigen Drittanbieter-Evaluierungen suchen.