Foto von Manuel Geissinger auf Pexels Source

claude-mem ist ein Claude-Code-Plugin, das sämtliche Aktionen eines KI-Coding-Agenten während einer Session aufzeichnet, per KI komprimiert und den relevanten Kontext automatisch in künftige Sessions injiziert. Das von Alex Newman entwickelte Plugin erreichte im Februar 2026 Platz 1 auf GitHub Trending und sammelte über 21.000 Stars. Es löst ein Problem, das jeder Entwickler mit KI-Coding-Agenten kennt: Terminal schließen, und der Agent hat alles vergessen, was er über die Codebasis, Konventionen und gemeinsame Entscheidungen gelernt hat.

Die Architektur ist klar strukturiert. Fünf Lifecycle Hooks beobachten jeden Tool-Aufruf während einer Claude-Code-Session. Ein Worker-Service komprimiert die Beobachtungen über Claudes Agent SDK. Die komprimierten Zusammenfassungen landen in einer dualen Speicherschicht (SQLite für Keyword-Suche, ChromaDB für semantische Suche) und werden automatisch in neue Sessions eingespielt. Das Ergebnis: etwa 10-fache Token-Effizienz gegenüber manuellem Kontext-Management.

Weiterlesen: Context Engineering: Das Architekturmuster, das Prompt Engineering ablöst

Das Amnesie-Problem kostet Entwickler echte Arbeitszeit

Alle KI-Coding-Agenten auf dem Markt sind standardmäßig zustandslos. Cursor, GitHub Copilot, Claude Code, Codex: Neue Session, null Erinnerung an gestern. Kein Wissen über Architekturentscheidungen. Keine Ahnung von behobenen Bugs oder etablierten Patterns.

Die Kosten sind konkret. Entwickler berichten, dass sie 15 bis 30 Minuten pro Session mit der Wiederherstellung von Kontext verbringen: Projektstruktur erklären, Namenskonventionen beschreiben, Constraints wiederholen, die der Agent in der letzten Session bereits verstanden hatte. Bei einem Team von 10 Entwicklern mit 3-4 KI-Sessions pro Tag summiert sich das auf 30 bis 60 Stunden pro Woche reiner Wiederholung.

Claude Codes eingebaute CLAUDE.md-Datei adressiert das Problem teilweise, indem sie statische Anweisungen bereitstellt, die der Agent bei Sessionstart liest. Aber CLAUDE.md ist manuell. Man schreibt sie einmal und aktualisiert gelegentlich. Dynamischer Kontext, der sich während einer Session aufbaut (Debugging-Pfade, Tool-Outputs, das inkrementelle Verständnis eines bestimmten Moduls), wird nicht erfasst.

claude-mem füllt die Lücke zwischen statischen Projektanweisungen und dem dynamischen Session-Kontext, der einen KI-Coding-Agenten über längere Zeit wirklich nützlich macht. Ein Entwickler berichtete auf X, dass generierter Code mit persistentem Memory zu etwa 85 % Projektkonventionen einhält, verglichen mit 30 % ohne.

Fünf Hooks, ein Worker-Service: So erfasst claude-mem Kontext

claude-mem registriert fünf Lifecycle Hooks über das Plugin-System von Claude Code. Jeder Hook feuert zu einem bestimmten Zeitpunkt im Session-Lebenszyklus, und zusammen erzeugen sie eine vollständige Aufzeichnung.

SessionStart: Vergangenen Kontext injizieren

Beim Öffnen einer neuen Claude-Code-Session feuert der SessionStart-Hook sofort. Er fragt sowohl die SQLite- als auch die ChromaDB-Datenbank nach Erinnerungen ab, die zum aktuellen Projektverzeichnis passen. Passende Zusammenfassungen werden in Claudes System-Prompt injiziert, bevor man die erste Nachricht tippt. So “erinnert” sich der Agent an frühere Sessions, ohne dass man ein Wort sagt.

Die Abfrage ist projektbezogen. Wechselt man zwischen einem React-Frontend-Repo und einem Python-Backend-Repo, liefert claude-mem unterschiedliche Erinnerungen für jedes Projekt. Neuere Sessions werden gegenüber älteren priorisiert, damit veralteter Kontext aktuellen nicht verdrängt.

UserPromptSubmit: Absichten erfassen

Der UserPromptSubmit-Hook zeichnet auf, was man den Agenten gebeten hat zu tun. Das ist entscheidend, weil Tool-Outputs allein keine Absichten transportieren. Wenn man Claude gebeten hat, “das Payment-Modul auf das Strategy-Pattern umzubauen,” liefert diese Anweisung kritischen Kontext für die Dateiänderungen und Terminalbefehle, die folgten.

PostToolUse: Jede Aktion protokollieren

Das ist der Hauptmechanismus. Jedes Mal, wenn Claude ein Tool ausführt (Datei bearbeiten, Bash-Befehl ausführen, Codebase durchsuchen, Datei lesen), erfasst PostToolUse sowohl Input als auch Output. Eine einzige Debugging-Session kann Hunderte von PostToolUse-Events erzeugen.

Die Rohdaten wären riesig. Hier kommt die Kompressions-Pipeline ins Spiel, die vom Worker-Service auf Port 37777 betrieben wird.

Stop und SessionEnd: Komprimierung und Persistierung

Am Sessionende passieren zwei Dinge nacheinander. Zunächst löst der Stop-Hook einen zweistufigen Kompressionsprozess aus. Ein KI-Modell (über Claudes Agent SDK) liest die Rohbeobachtungen und erzeugt semantische Zusammenfassungen. Diese Summaries erfassen die Kernentscheidungen, Erkenntnisse und Ergebnisse, ohne jede Zeile Tool-Output aufzubewahren.

Anschließend persistiert SessionEnd alles. Die komprimierten Zusammenfassungen gehen in SQLite (für strukturierte Abfragen und Volltextsuche über FTS5) und in ChromaDB (für semantische Ähnlichkeitssuche über Embeddings). Ein Hintergrund-Worker erledigt das asynchron, damit das Terminal nicht blockiert wird.

Weiterlesen: Observational Memory: Das KI-Agent-Memory-Muster, das RAG schlägt und Kosten um Faktor 10 senkt

Die duale Datenbankarchitektur

claude-mems Speicherschicht nutzt zwei Datenbanken aus gutem Grund. Jede bedient einen anderen Abruftyp, und zusammen decken sie das gesamte Spektrum ab, wie Entwickler tatsächlich nach vergangenem Kontext suchen.

SQLite mit FTS5: Die “Wann und Was”-Datenbank

SQLite speichert strukturierte Datensätze: Sessions, einzelne Beobachtungen und KI-generierte Zusammenfassungen. Die FTS5-Volltextsuche bearbeitet Keyword-Abfragen effizient. Fragt man “was haben wir am Authentifizierungsmodul geändert?”, kann das System exakte Begriffe wie “Auth,” “Login” und “JWT” matchen.

FTS5 ist schnell, deterministisch und braucht keine externen Abhängigkeiten. Kein Vektor-Datenbankserver, der laufen muss. Kein Embedding-Modell, das aufgerufen werden muss. Für präzise Abfragen, bei denen man die Terminologie kennt, ist Keyword-Suche oft zuverlässiger als semantische Suche.

ChromaDB: Die “Ähnliches Konzept”-Datenbank

ChromaDB ermöglicht semantische Suche über Embeddings. Wenn Keyword-Suche versagt (weil man nach “dem Ding mit dem Payment-Flow” fragt statt den genauen Funktionsnamen zu kennen), findet Chroma konzeptuell verwandte Beobachtungen auch ohne exakte Keyword-Übereinstimmung.

Die beiden Datenbanken ergänzen sich. SQLite beantwortet “zeig mir alles von der Debugging-Session am Dienstag.” Chroma beantwortet “was haben wir über Rate Limiting gelernt, auch wenn wir den Begriff nie genau so verwendet haben?”

Schichtweiser Memory-Abruf

claude-mem ruft Erinnerungen in einem geschichteten Ansatz ab, der auf Token-Effizienz ausgelegt ist. Die erste Schicht liefert einen kompakten Index: Memory-IDs mit einzeiligen Beschreibungen. Claude scannt diesen Index und fordert vollständige Details nur für die Erinnerungen an, die tatsächlich gebraucht werden. Eine Timeline-Schicht ermöglicht es Claude, den Kontext vor und nach einer ausgewählten Erinnerung zu inspizieren.

Eine typische Session-Injektion verbraucht 500 bis 2.000 Token Kontext, nicht 20.000. Das lässt den Großteil des Context Windows für die eigentliche Codierarbeit frei.

Warum Memory-Infrastruktur über claude-mem hinaus zählt

claude-mem ist ein Plugin für ein Tool. Der breitere Trend: Memory wird zur erstklassigen Infrastrukturschicht im gesamten KI-Agent-Ökosystem.

Mem0 bietet eine verwaltete Memory-Schicht, die mit mehreren LLM-Anbietern funktioniert und 26 % Genauigkeitsverbesserung gegenüber Baseline-RAG bei Konversationsbenchmarks berichtet. Zep liefert einen ähnlichen persistenten Memory-Service mit eingebauter Faktenextraktion und Entity-Tracking. Redis hat ein dediziertes KI-Agent-Orchestrierungs-Framework veröffentlicht, das Memory als Kernprimitiv neben State Management und Tool Routing behandelt.

Für Unternehmen im DACH-Raum ist die Datenschutzfrage entscheidend. claude-mem speichert alles lokal, kein Cloud-Sync, keine Daten verlassen den Rechner. Das ist DSGVO-kompatibel per Design. Wer dennoch Bedenken hat: Die AGPL-3.0-Lizenz erlaubt vollständige Code-Prüfung, und das SQLite-Format ist trivial zu inspizieren.

Das Muster ist überall gleich. Zustandslose Agenten sind eine Prototyp-Limitierung, kein Feature. Produktionsreife KI-Agenten müssen sich an das erinnern, was sie gelernt haben. Die Teams, die Memory-Infrastruktur bauen, behandeln sie mit derselben Ernsthaftigkeit wie Datenbankdesign oder Caching-Strategie.

Weiterlesen: KI-Agent Memory 2026: Von RAG zu persistenter Kontextarchitektur

Erste Schritte mit claude-mem

Die Installation dauert keine zwei Minuten. Das Plugin benötigt Node.js 18+ und Bun (für den Worker-Service).

npx claude-mem@latest init

Dieser Befehl registriert die Lifecycle Hooks in der Claude-Code-Konfiguration und startet den Worker-Service. Ab diesem Zeitpunkt erfasst und ruft jede Claude-Code-Session im initialisierten Projekt automatisch Erinnerungen ab.

Der Worker-Service stellt eine Web-Oberfläche unter http://localhost:37777 bereit, über die man den Memory-Stream durchsuchen, einzelne Beobachtungen inspizieren und Einstellungen verwalten kann. claude-mem exponiert außerdem MCP-Tools an Claude Code, sodass der Agent seine eigene Erinnerung im Rahmen seines Denkprozesses durchsuchen kann.

Häufig gestellte Fragen

Was ist claude-mem und wie funktioniert es?

claude-mem ist ein Open-Source-Plugin für Claude Code, das alle Aktionen des KI-Coding-Agenten während einer Session über fünf Lifecycle Hooks erfasst (Dateiänderungen, Bash-Befehle, Suchergebnisse), diese Beobachtungen per KI komprimiert und den relevanten Kontext automatisch in künftige Sessions injiziert. Es nutzt SQLite für Keyword-Suche und ChromaDB für semantische Suche und erreicht etwa 10-fache Token-Effizienz.

Werden meine Daten bei claude-mem in die Cloud gesendet?

Nein. claude-mem speichert alle Daten lokal in SQLite- und ChromaDB-Datenbanken innerhalb des Projektverzeichnisses. Keine Session-Daten verlassen den Rechner. Das Projekt ist unter AGPL-3.0 lizenziert, sodass der vollständige Quellcode zur Prüfung bereitsteht. Für Unternehmen im DACH-Raum ist das besonders relevant: Die lokale Speicherung ist DSGVO-kompatibel per Design.

Wie viel Kontext fügt claude-mem pro Session hinzu?

claude-mem nutzt einen schichtweisen Abrufansatz, der typischerweise 500 bis 2.000 Token komprimierten Kontext pro Session hinzufügt. Zunächst wird ein kompakter Index relevanter Erinnerungen zurückgegeben, dann werden vollständige Details nur für die Einträge geladen, die Claude tatsächlich braucht. So bleibt der Großteil des Context Windows für die Codierarbeit frei.

Funktioniert claude-mem auch mit anderen KI-Coding-Agenten?

claude-mem ist speziell für das Lifecycle-Hook-System von Claude Code gebaut und funktioniert aktuell nur mit Claude Code. Für andere KI-Coding-Agenten bieten Alternativen wie Mem0, Zep oder eigene MCP-basierte Memory-Server ähnliche persistente Memory-Funktionen plattformübergreifend.

Warum wurde claude-mem auf GitHub so populär?

claude-mem erreichte Platz 1 auf GitHub Trending, weil es ein universelles Problem löst: KI-Coding-Agenten, die zwischen Sessions alles vergessen. Entwickler berichteten, dass sie 15 bis 30 Minuten pro Session mit der Wiederherstellung von Kontext verbrachten. claude-mem eliminierte diese Reibung durch automatisches Erfassen und Injizieren relevanten vergangenen Kontexts.