Vier KI-Agent-Frameworks haben zwischen dem 30. Januar und dem 6. Februar 2026 größere Updates veröffentlicht. CrewAI bekommt natives A2A-Protokoll. OpenAI macht Human-in-the-Loop zum Kernfeature. LangGraph behebt produktionskritische Streaming-Bugs. Und AutoGen erweitert still seine Memory-Schicht. Kein einzelnes Release verändert die Landschaft grundlegend, aber zusammen gelesen zeigen sie, wohin die Agent-Infrastruktur steuert: Interoperabilität, menschliche Kontrolle und Produktionshärtung.
Hier steht, was jedes Release enthält, was in jedem Changelog wirklich zählt, und was die Konvergenz für die Framework-Wahl bedeutet.
CrewAI 1.9.3: A2A-Protokoll wird nativ
Am 30. Januar 2026 veröffentlicht, ist CrewAI 1.9.3 das erste große Framework mit nativem A2A-Support (Agent-to-Agent) über eine neue Komponente namens LiteAgent. Kein Plugin, kein Community-Beitrag. Es ist ein Kernfeature mit Authentifizierung, Transport-Negotiation und Dateitransfer.
Was LiteAgent konkret macht
LiteAgent implementiert Googles A2A-Protokollspezifikation als leichtgewichtigen Agent-Wrapper. Statt eigene HTTP-Endpoints oder gRPC-Services für die Inter-Agent-Kommunikation zu bauen, definiert man einen LiteAgent mit A2A-Fähigkeiten, der Discovery, Authentifizierung und Nachrichtenaustausch automatisch übernimmt.
Die Authentifizierungsschicht unterstützt sowohl API-Key- als auch OAuth2-Flows. Transport-Negotiation bedeutet: Ein LiteAgent kann von WebSocket auf HTTP-Streaming auf einfaches HTTP zurückfallen, je nachdem was der empfangende Agent unterstützt. Datei-Support ermöglicht den Austausch binärer Artefakte (PDFs, Bilder, Code-Dateien) über den A2A-Message-Envelope, nicht als separate Out-of-Band-Transfers.
from crewai import LiteAgent
agent = LiteAgent(
name="data_analyst",
description="Analysiert Finanzberichte",
auth={"type": "oauth2", "provider": "azure_ad"},
capabilities=["file_transfer", "streaming"]
)
Warum dieses Release zählt
Vor 1.9.3 erforderte die Kommunikation zwischen CrewAI-Agenten und Agenten anderer Frameworks eigenen Integrationscode. A2A-Support ändert das. Ein CrewAI-Analyst-Agent kann jetzt strukturierte Nachrichten mit einem LangGraph-Orchestrator oder einer Google-ADK-Pipeline austauschen, ohne dass eine Seite die Framework-Interna der anderen kennen muss. Das ist Interoperabilität auf Protokollebene.
Für DACH-Unternehmen, die bereits unterschiedliche KI-Stacks in verschiedenen Abteilungen einsetzen, beseitigt das eine konkrete Integrationshürde. Der Vertrieb nutzt CrewAI, die Datenanalyse LangGraph, und beide können jetzt über A2A kommunizieren, ohne dass das IT-Team Custom-Middleware bauen muss.
OpenAI Agents SDK v0.8.0: Human-in-the-Loop wird zum Standard
Am 5. Februar 2026 veröffentlicht, behandelt das OpenAI Agents SDK v0.8.0 menschliche Kontrolle nicht als Nachgedanke, sondern als Kern-Execution-Primitive. Tools können needs_approval=True deklarieren, woraufhin das SDK den gesamten Agent-Run pausiert, den Zustand serialisiert und auf eine menschliche Entscheidung wartet.
Wie der Approval-Flow funktioniert
Wenn ein Agent ein Tool mit Genehmigungspflicht aufruft, erzeugt das SDK ein strukturiertes Event mit Tool-Name, Argumenten und einem serialisierten RunState. Die Anwendung fängt das Event ab, präsentiert es einem menschlichen Prüfer und setzt den Run mit Genehmigung oder Ablehnung fort.
from openai_agents import Agent, Tool
@Tool(needs_approval=True)
def execute_trade(ticker: str, quantity: int, action: str):
"""Führt einen Aktienhandel aus. Erfordert Genehmigung."""
return broker.execute(ticker, quantity, action)
agent = Agent(
name="trading_assistant",
tools=[execute_trade]
)
# RunState ist serialisierbar - die Genehmigung kann Minuten
# oder Stunden später erfolgen, sogar auf einem anderen Rechner
Der Serialisierungsaspekt ist entscheidend. Das RunState-Objekt erfasst den vollständigen Execution-Kontext: Gesprächsverlauf, Tool-Call-Stack, ausstehende Aktionen und Model-State. Man kann es in einer Datenbank persistieren, an eine Queue senden und den Run auf einem völlig anderen Rechner fortsetzen. Das macht asynchrone Genehmigungsworkflows erstmals ohne eigene Orchestrierung möglich.
MCP-Fehlerbehandlung wird intelligent
Das v0.8.0-Release überarbeitet auch die MCP-Tool-Fehlerbehandlung. Zuvor crashte jeder MCP-Fehler den gesamten Agent-Run. Jetzt sind Fehler standardmäßig für das Modell sichtbar: Das LLM sieht die Fehlermeldung und kann entscheiden, ob es erneut versucht, ein anderes Tool nutzt oder dem Benutzer den Fehler erklärt.
Für Teams, die im Rahmen des EU AI Act Transparenz- und Kontrollpflichten erfüllen müssen, ist diese Art der strukturierten menschlichen Einbindung nicht optional, sondern regulatorisch relevant.
LangGraph 1.0.8: Die langweiligen Fixes, die Produktion am Laufen halten
Am 6. Februar 2026 veröffentlicht, hat LangGraph 1.0.8 keine Headline-Features. Keine neuen Abstraktionen, keine Protokoll-Ankündigungen. Stattdessen behebt es die Art von Bugs, die nur unter echter Produktionslast auftreten, und genau das macht dieses Release beachtenswert.
Was behoben wurde
Pydantic-Message-Double-Streaming. Vor 1.0.8 emittierte das Streaming von Pydantic-typisierten Messages doppelte Chunks. Wenn der Agent strukturierte Antworten an ein Frontend streamt, sahen Benutzer wiederholte Inhalte. Subtil, schwer zu debuggen, jetzt behoben.
Connection-Pool-Locking. Beim Betrieb von LangGraph-Agenten hinter einem Connection-Pool (Standard für jedes Deployment mit mehr als einer Handvoll gleichzeitiger Nutzer) erwarb das Framework bei jedem Pool-Zugriff einen Lock. Unter hoher Nebenläufigkeit erzeugte das einen künstlichen Flaschenhals. Version 1.0.8 verzichtet auf den Lock, wenn ein Connection-Pool aktiv ist, da der Pool selbst die Thread-Safety gewährleistet.
Shallow-Copy Futures. Eine Memory-Optimierung, die Deep-Copying von Future-Objekten bei State-Transitions verhindert. Für Agenten mit großen State-Graphen oder vielen parallelen Branches reduziert das Speicherdruck und GC-Pausen.
Warum langweilige Releases wichtig sind
LangGraph wird am häufigsten für Produktions-Workloads gewählt, weil das Team solche Probleme ernst nimmt. Die LangGraph Platform betreibt Enterprise-Agenten im großen Maßstab. Bugs wie Double-Streaming oder Lock-Contention überleben nicht lange, bevor das Team, das Klarnas und Replits Agent-Infrastruktur betreut, sie bemerkt.
Für deutsche Mittelständler, die ihre ersten KI-Agenten in Produktion bringen: Dieser Release-Zyklus ist ein Signal. LangGraph ist über die Feature-Velocity-Phase hinaus und in der Reliability-Phase. Genau da will man seine Produktionsabhängigkeiten haben.
AutoGen v0.7.5: Streaming und Memory, aber wohin geht Microsoft?
AutoGen v0.7.5, veröffentlicht am 30. September 2025, ist das älteste Release in diesem Roundup. Die Aufnahme hier ist Absicht: Während CrewAI, OpenAI und LangChain in der ersten Februarwoche Updates veröffentlichten, ist Microsofts letztes AutoGen-Release über vier Monate alt. Diese Kadenz-Lücke erzählt eine Geschichte.
Was v0.7.5 enthält
Streaming-Tools und Updates für AgentTool und TeamTool mit run_json_stream-Support. Agent- und Team-Outputs können jetzt inkrementell gestreamt werden statt als einzelner Block. Für Chat-Oberflächen ist das Grundvoraussetzung.
Memory-Erweiterungen: RedisMemory unterstützt jetzt linearen Speicher (sequenzielle Event-Speicherung neben Vektor-Retrieval), und eine Mem0-Integration ermöglicht die Nutzung von Mem0s Managed-Memory-Service. AutoGen-Agenten können damit langfristiges Gedächtnis über Sessions hinweg behalten, ohne eigene Persistenz zu bauen.
Anthropic-Thinking-Mode: Unterstützung im Client, sodass AutoGen-Agenten Claudes Extended-Thinking-Feature nutzen können. Für reasoning-intensive Aufgaben vorteilhaft, erhöht aber den Token-Verbrauch.
Der Elefant im Raum
Microsoft kündigte im Oktober 2025 an, AutoGen und Semantic Kernel zum einheitlichen Microsoft Agent Framework zusammenzuführen. AutoGen ging in den Wartungsmodus. Das v0.7.5-Release erschien eine Woche vor dieser Ankündigung, danach kam kein neues Feature-Release.
Wer ein neues Projekt auf dem Microsoft-Stack startet, sollte nicht mehr AutoGen wählen. Das Microsoft Agent Framework ist der Ort, an dem die Entwicklungsressourcen fließen. Wer AutoGen in Produktion betreibt: Der Migrationspfad ist noch nicht klar. GA für das vereinheitlichte Framework wird bis Ende Q1 2026 angestrebt, aber die APIs ändern sich noch.
Drei Konvergenztrends, die man verfolgen sollte
Liest man die vier Changelogs zusammen, ergeben sich drei Muster:
1. A2A-Interoperabilität breitet sich aus. CrewAIs nativer A2A-Support reiht sich neben Google ADK und dem Microsoft Agent Framework ein. LangGraph hat noch kein natives A2A, aber der LangSmith-Integrationspfad deutet darauf hin, dass es kommt. Bis Mitte 2026 wird “Spricht es A2A?” eine Checkbox-Anforderung bei der Framework-Evaluation, genauso wie “Unterstützt es MCP?” Ende 2025 eine wurde.
2. Human-in-the-Loop standardisiert sich. OpenAIs needs_approval-Pattern ist nicht originell; LangGraph hat Interrupt-and-Resume seit 2025, und CrewAIs neues Self-Loop-Feedback in 1.10.0a1 folgt dem gleichen Muster. Die Konvergenz liegt in der Implementierung: serialisierbarer Run-State, asynchrone Approval-Flows und Resume-on-any-Machine. Das sind Grundvoraussetzungen, keine Differenzierungsmerkmale. Für DACH-Unternehmen unter dem EU AI Act ist das besonders relevant: Menschliche Kontrolle bei Hochrisiko-Entscheidungen ist dort Pflicht.
3. Produktionshärtung trennt Anführer von Anwärtern. LangGraphs 1.0.8 ist die Art Release, die nur entsteht, wenn ein Framework unter echter Produktionslast steht. Connection-Pool-Locking, Streaming-Deduplizierung und Memory-Optimierung tauchen nicht in Benchmarks oder Demos auf. Sie tauchen auf, wenn der Agent 10.000 gleichzeitige Sessions handhabt und die 99.-Perzentil-Latenz zählt.
Für Teams, die heute Frameworks evaluieren: Wer Interoperabilität priorisiert, profitiert von CrewAIs A2A-Vorsprung. Wer Produktionszuverlässigkeit sucht, findet bei LangGraph die stärkste Bilanz. Wer im OpenAI-Ökosystem arbeitet und Human-Oversight-Patterns braucht, bekommt mit dem v0.8.0 SDK die sauberste Implementierung. Und wer auf dem Microsoft-Stack arbeitet: Besser auf das vereinheitlichte Agent Framework warten, als neue Projekte auf AutoGen zu starten.
Häufig gestellte Fragen
Was ist neu in CrewAI 1.9.3?
CrewAI 1.9.3, veröffentlicht am 30. Januar 2026, bringt nativen A2A-Protokoll-Support (Agent-to-Agent) über LiteAgent. Das umfasst Authentifizierung (API-Key und OAuth2), Transport-Negotiation (WebSocket, HTTP-Streaming, HTTP-Fallback) und Dateitransfer. Außerdem verbessert es die Output-Verarbeitung und Response-Model-Integration.
Unterstützt das OpenAI Agents SDK v0.8.0 Human-in-the-Loop?
Ja. OpenAI Agents SDK v0.8.0 führt erstklassigen Human-in-the-Loop-Support ein. Tools können needs_approval=True deklarieren, was die Agent-Execution pausiert und den RunState für menschliche Prüfung serialisiert. Der serialisierte State kann in einer Datenbank persistiert und auf einem anderen Rechner fortgesetzt werden.
Was hat LangGraph 1.0.8 behoben?
LangGraph 1.0.8, veröffentlicht am 6. Februar 2026, behebt Pydantic-Message-Double-Streaming, entfernt unnötiges Lock-Acquiring bei Connection-Pools (verbessert High-Concurrency-Performance) und fügt Shallow-Copy für Futures hinzu, um Speicherdruck bei State-Transitions zu reduzieren.
Sollte ich 2026 ein neues Projekt auf AutoGen starten?
Nein. Microsoft hat im Oktober 2025 angekündigt, AutoGen und Semantic Kernel zum einheitlichen Microsoft Agent Framework zusammenzuführen. AutoGen ist im Wartungsmodus. Das letzte Feature-Release (v0.7.5) war am 30. September 2025. Neue Projekte auf dem Microsoft-Stack sollten auf das Microsoft Agent Framework setzen, das bis Ende Q1 2026 GA erreichen soll.
Welches KI-Agent-Framework hat den besten A2A-Protokoll-Support?
Stand Februar 2026 hat CrewAI den ausgereiftesten nativen A2A-Support über seine LiteAgent-Komponente, einschließlich Authentifizierung, Transport-Negotiation und Dateitransfer. Google ADK unterstützt A2A ebenfalls nativ. Das Microsoft Agent Framework fügt A2A-Support hinzu. LangGraph hat noch kein natives A2A, kann aber über LangSmith integrieren.
Jede Woche erscheinen neue Framework-Releases. Abonniere für praxisnahe Einordnungen, was zählt und was man überspringen kann.
