Foto von Shubham Dhage auf Unsplash Source

Microsoft hat AutoGen beerdigt. Nicht leise, nicht schrittweise. Im Oktober 2025 verkündete das Unternehmen, dass sowohl AutoGen als auch Semantic Kernel in den Wartungsmodus übergehen. Die Teams beider Projekte arbeiten seitdem gemeinsam am neuen Microsoft Agent Framework. GA ist für Ende Q1 2026 geplant, mit stabilen APIs, Produktions-SLAs und Compliance-Zertifizierungen (SOC 2, HIPAA).

Wer produktiven Code auf AutoGen 0.4 betreibt, hat damit sein Migrationssignal. Wer ein neues Agent-Projekt evaluiert, muss die Optionen neu bewerten. Hier kommt die Einordnung: Was Microsoft gebaut hat, was es ersetzt, und ob es neben LangGraph, CrewAI und Co. bestehen kann.

Weiterlesen: Was sind KI-Agenten? Ein praktischer Leitfaden für Entscheider

Warum Microsoft zwei Frameworks zusammengelegt hat

Die ehrliche Antwort: AutoGen und Semantic Kernel lösten überlappende Probleme für unterschiedliche Zielgruppen, und keines der beiden war allein vollständig.

AutoGen (ursprünglich ein Microsoft-Research-Projekt) glänzte bei Multi-Agent-Mustern. Das konversationsbasierte Agentenmodell ermöglichte spezialisierte Agenten, die koordinieren, diskutieren und iterativ arbeiten konnten. Forscher waren begeistert. Das AutoGen-Paper wurde tausendfach zitiert. Aber wenn Enterprise-Teams es produktiv einsetzen wollten, stießen sie an Grenzen: kein Session-Management, begrenzte Telemetrie, keine Deployment-Geschichte und ein reines Python-Projekt, das .NET-Teams ausschloss.

Semantic Kernel war das Enterprise-SDK. Typsicher, mehrsprachig (C#, Python, Java), tiefe Azure-Integration, Filter, Middleware und Telemetrie direkt eingebaut. Aber die Agent-Orchestrierung war dünn. Multi-Agent-Workflows erforderten eigene Infrastruktur, die AutoGen kostenlos mitlieferte.

Microsofts Lösung: AutoGens Multi-Agent-Abstraktionen auf Semantic Kernels Enterprise-Basis setzen und eine neue Workflow-Engine darüber legen. Beide Teams arbeiten jetzt unter einem Dach. Beide Original-Repos erhalten nur noch Bugfixes und Sicherheitspatches, keine neuen Features.

Laut VentureBeat ist die Zusammenlegung nicht kosmetisch. Sie bündelt erhebliche Engineering-Ressourcen in einer einzigen Codebasis, was schnellere Iterationen und weniger Kompatibilitätsprobleme bedeutet.

Was im Microsoft Agent Framework steckt

Das Framework hat zwei Kernbausteine: Agents und Workflows.

Agents: Die einzelnen Einheiten

Ein Agent im Microsoft Agent Framework ist ein LLM-gestützter Prozess, der Input verarbeitet, optional Tools oder MCP-Server aufruft und Output erzeugt. Bis hierhin kein Unterschied zu anderen Frameworks.

Der Unterschied liegt in den optionalen Schichten:

  • Session-Management: Speichert Konversationszustand über mehrere Turns. Das war eine der größten Lücken im eigenständigen AutoGen.
  • Context Provider: Versorgen den Agenten mit Wissen, Gedächtnis oder RAG-Ergebnissen als Kontext. Im Grunde Semantic Kernels Memory-Plugins, jetzt auf Framework-Ebene integriert.
  • Middleware: Fängt jede Agentenaktion ab, bevor sie ausgeführt wird. Nützlich für Logging, Leitplanken, Inhaltsfilterung oder Compliance-Prüfungen.
  • MCP-Clients: Native Unterstützung des Model Context Protocol für Tool-Integration, dem selben MCP-Standard, den auch Anthropic, OpenAI und Google übernommen haben.

Die unterstützten Modell-Anbieter sind Azure OpenAI, OpenAI und Azure AI. Kein Anthropic- oder Google-Support ab Werk, was bei Multi-Provider-Redundanz eine spürbare Einschränkung ist.

Workflows: Die Orchestrierungsschicht

Workflows sind der Bereich, in dem das Framework echte Neuerungen bringt. Statt sich rein auf LLM-gesteuerte Weiterleitung zu verlassen (“lass das Modell entscheiden, was als nächstes passiert”), bieten Workflows eine graphbasierte Ausführungsengine mit deterministischer Kontrolle.

from agent_framework import Workflow, Agent

workflow = Workflow()
researcher = Agent(name="researcher", model="gpt-4o")
writer = Agent(name="writer", model="gpt-4o")

# Explizite Ausführungspfade definieren
workflow.add_edge(researcher, writer)
workflow.add_conditional_edge(
    writer,
    condition=lambda output: "needs_revision" in output,
    targets={True: researcher, False: "end"}
)

Zentrale Workflow-Features:

  • Bedingtes Routing: Ausführung basierend auf Agent-Output verzweigen, nicht nur auf LLM-Entscheidungen.
  • Parallele Verarbeitung: Unabhängige Agent-Aufgaben gleichzeitig ausführen.
  • Checkpointing: Workflow-Zustand speichern und später fortsetzen, entscheidend für lang laufende Prozesse.
  • Human-in-the-Loop-Muster: Ausführung pausieren, auf menschlichen Input warten und fortsetzen. Das deckt direkt ab, was Artikel 14 des EU AI Act für Hochrisiko-Systeme verlangt.
  • Multi-Agent-Orchestrierungsmuster: Sequenzielle Pipelines, paralleles Fan-out, Supervisor-Hierarchien, dynamische Handoffs und was Microsoft “Magentic” nennt (ein flexibles Muster, das mehrere Ansätze kombiniert).

Wer unseren Multi-Agent-Orchestrierung-Leitfaden kennt, wird die Muster wiedererkennen. Der Unterschied: Microsoft liefert sie als Framework-Primitive statt als Muster, die man selbst zusammenbauen muss.

Weiterlesen: Google ADK: Das Agent-Framework mit nativem MCP und A2A

Vergleich mit LangGraph und CrewAI

Der Vergleich, den alle wollen. Hier die ehrliche Einordnung.

Microsoft Agent Framework vs. LangGraph

LangGraph bleibt die Standard-Empfehlung für die meisten Teams, und die LangChain-Umfragedaten untermauern das: größte Produktionsverbreitung, ausgereiftestes Tooling (LangSmith für Observability, LangGraph Platform für Deployment) und niedrigste Latenz in aktuellen Benchmarks.

Wo Microsoft Agent Framework gewinnt:

  • Mehrsprachigkeit: C#, Python und Java. LangGraph ist Python-first mit JavaScript/TypeScript via LangGraph.js. Für .NET-Teams ist das kein kleines Detail; es ist ein Ausschlusskriterium gegen LangGraph.
  • Azure-Integration: Natives Azure AI Foundry Deployment mit eingebautem Identity Management (Entra ID), Autoscaling und Governance. LangGraph Platform kann Deployment auch, aber nicht mit derselben Tiefe der Cloud-nativen Integration für Azure-Kunden.
  • Enterprise-Support-Verträge: Produktions-SLAs, 24/7-Support, Compliance-Zertifizierungen. Für IT-Beschaffungsteams in DACH-Unternehmen ist Microsofts Support-Geschichte vertrauter als die eines LangChain-Startups.
  • Governance eingebaut: Jeder Agent erhält eine Entra-Identität mit Lifecycle-Management. Das Publizieren eines Agenten erzeugt eine verwaltete Azure-Ressource mit Audit-Trails, RBAC und Datenisolierung. Bei LangGraph muss man das selbst verkabeln.

Wo LangGraph gewinnt:

  • Reife: LangGraph ist bei Klarna, Replit und hunderten anderen Unternehmen produktiv getestet. Microsoft Agent Framework ist noch in der Preview.
  • Modell-Flexibilität: LangGraph arbeitet mit jedem LLM-Anbieter. Microsofts Framework unterstützt offiziell nur Azure OpenAI, OpenAI und Azure AI.
  • Community und Ökosystem: Mehr Tutorials, Beispiele, Integrationen und kampferprobte Muster.
  • Performance: Niedrigere Latenz, geringerer Token-Verbrauch in Head-to-Head-Benchmarks.

Microsoft Agent Framework vs. CrewAI

CrewAIs Stärke ist die Prototyp-Geschwindigkeit. Ein funktionierendes Multi-Agent-System in unter 50 Zeilen Python. Microsoft Agent Framework braucht mehr Boilerplate, gibt dafür aber mehr Kontrolle über den Ausführungsfluss.

CrewAI bleibt die bessere Wahl für Rapid Prototyping, interne Tools und Projekte ohne Enterprise-Governance-Anforderungen. Microsoft Agent Framework ist besser, wenn man Compliance, Mehrsprachigkeit oder bereits Azure-Investitionen mitbringt.

Der Migrationspfad von AutoGen

Wer AutoGen 0.4.x produktiv einsetzt, braucht einen Migrationsplan. Microsoft hat Migrationsanleitungen veröffentlicht und ein DevUI zur Visualisierung von Multi-Agent-Workflows bereitgestellt.

Die Kernkonzepte lassen sich direkt zuordnen:

AutoGen-KonzeptAgent Framework Äquivalent
AssistantAgentAgent mit Model Client
UserProxyAgentWorkflow mit Human-in-the-Loop-Edge
GroupChatWorkflow mit Multi-Agent-Orchestrierungsmuster
Event-driven MessagingWorkflow-Edges mit bedingtem Routing
ConversableAgentAgent mit Session-Management

Die größte Umstellung ist der Wechsel von AutoGens Event-basiertem Messaging zum Workflow-Graph-Modell. In AutoGen kommunizierten Agenten über einen Message-Bus und die Orchestrierung ergab sich aus der Konversation. Im Agent Framework definiert man explizite Ausführungspfade. Das ist vorhersagbarer, erfordert aber ein Umdenken bei der Agenteninteraktion.

Microsoft versichert, dass AutoGen weiterhin Bugfixes und Sicherheitspatches erhält, es gibt also keine sofortige Deadline. Aber neue Features landen nur noch im Agent Framework.

Für wen lohnt sich das Framework?

Microsoft Agent Framework wählen, wenn:

  • Die Organisation auf Azure und .NET setzt. Die Integrationstiefe ist unerreicht.
  • Compliance-Zertifizierungen (SOC 2, HIPAA) vom Framework-Anbieter nötig sind, nicht nur vom Cloud-Provider.
  • Agent Identity Management über Entra ID laufen soll, statt es selbst zu bauen.
  • Lang laufende Human-in-the-Loop-Workflows mit Checkpointing und State Persistence gebaut werden.

Bei LangGraph bleiben, wenn:

  • Man die größte Community, die meisten Beispiele und die kampferprobtesten Deployment-Muster will.
  • Multi-Provider-Modellunterstützung nötig ist (Anthropic, Google, Mistral, Open-Source-Modelle).
  • Das Team primär in Python arbeitet und keinen .NET- oder Java-Support braucht.
  • LangSmith bereits für Observability und Evaluation im Einsatz ist.

CrewAI wählen, wenn:

  • Prototyp-Geschwindigkeit wichtiger ist als Enterprise-Governance.
  • Die Agenten relativ unkompliziert sind und keine komplexen graphbasierten Workflows brauchen.

Die Framework-Landschaft konsolidiert sich 2026. Google hat Vertex AI Agent Builder. OpenAI hat das Agents SDK. Amazon hat Bedrock Agents. Microsoft hat jetzt das Agent Framework. Die Ära, in der man ein Framework von einem Startup wählt und hofft, dass es lange genug überlebt, verschiebt sich hin zu plattformgestützten Optionen mit Enterprise-Support. Das macht die unabhängigen Frameworks nicht schlechter, aber die Entscheidungskriterien umfassen jetzt auch Anbieter-Stabilität neben technischer Leistungsfähigkeit.

Weiterlesen: KI-Agent-Frameworks im Vergleich: LangGraph, CrewAI, AutoGen

Häufig gestellte Fragen

Was ist mit Microsoft AutoGen passiert?

Microsoft hat AutoGen im Oktober 2025 als aktives Entwicklungsprojekt eingestellt und mit Semantic Kernel zum neuen Microsoft Agent Framework zusammengeführt. AutoGen erhält weiterhin Bugfixes und Sicherheitspatches, aber keine neuen Features. Die Teams beider Projekte arbeiten jetzt gemeinsam am Agent Framework.

Wann wird Microsoft Agent Framework GA?

Microsoft plant die allgemeine Verfügbarkeit (GA) von Agent Framework 1.0 bis Ende Q1 2026, mit stabilen versionierten APIs, Produktions-SLAs und Compliance-Zertifizierungen einschließlich SOC 2 und HIPAA.

Sollte ich von AutoGen zum Microsoft Agent Framework migrieren?

Ja, wenn man weiterhin auf ein Microsoft-gestütztes Framework bauen möchte. AutoGen befindet sich im Wartungsmodus ohne geplante neue Features. Microsoft hat Migrationsanleitungen veröffentlicht und die Kernkonzepte lassen sich direkt zuordnen. Die größte Änderung ist der Wechsel vom Event-basierten Messaging zu graphbasierten Workflows.

Wie vergleicht sich Microsoft Agent Framework mit LangGraph?

LangGraph hat mehr Produktionsreife, breitere Modellunterstützung und eine größere Community. Microsoft Agent Framework bietet bessere Azure-Integration, Mehrsprachigkeit (C#, Python, Java), eingebaute Enterprise-Governance und Compliance-Zertifizierungen. LangGraph bleibt die bessere Standardwahl, es sei denn man ist stark in Azure und .NET investiert.

Welche Programmiersprachen unterstützt Microsoft Agent Framework?

Microsoft Agent Framework unterstützt C#/.NET, Python und Java. Diese Mehrsprachigkeit ist einer der wichtigsten Unterscheidungsmerkmale, besonders für Enterprise-Teams, die primär in .NET statt in Python arbeiten.