Foto von Jordan Harrison auf Unsplash Source

OpenAIs Assistants API ist Geschichte. Das Unternehmen hat die Abkündigung im August 2025 bekannt gegeben und den endgültigen Abschalttermin auf den 26. August 2026 festgelegt. Der Nachfolger, bestehend aus Responses API und Conversations API, bringt native Unterstützung für das Model Context Protocol (MCP) mit. Wenn das Unternehmen, das die bekannteste proprietäre Agent-API gebaut hat, diese zugunsten eines offenen Protokolls der Konkurrenz aufgibt, ist der Standardkrieg entschieden. MCP hat gewonnen.

Das ist mehr als eine Deprecation-Meldung. Es ist das deutlichste Signal, dass sich das Agent-Ökosystem auf eine einzige Interoperabilitätsschicht konsolidiert hat: MCP für Tool-Integration, ergänzt durch A2A für Agent-zu-Agent-Kommunikation. Wer heute Agenten baut, muss nicht mehr rätseln, auf welches Protokoll er setzen soll.

Weiterlesen: MCP und A2A: Protokolle für KI-Agent-Kommunikation

Was genau verschwindet

Die Assistants API startete im November 2023 als OpenAIs Antwort auf zustandsbehaftete, mehrstufige Agent-Workflows. Sie bündelte Threads, Nachrichten, Runs und eingebaute Tools (Code Interpreter, Dateisuche, Function Calling) in einem verwalteten Dienst. Man erstellte einen Assistenten, gab ihm Anweisungen, und OpenAI verwaltete den Konversationsstatus serverseitig.

Weiterlesen: MCP vs. Function Calling: Unterschiede, Stärken und wann man was einsetzt

Das Problem lag in der Architektur:

  • Proprietär und eingesperrt. Der Zustand des Assistenten lag auf OpenAIs Servern. Ein Wechsel zu einem anderen Modellanbieter bedeutete, die gesamte Agent-Schicht neu zu schreiben.
  • Sitzungsbasiert und zustandsbehaftet. Jede Interaktion erforderte ein Thread-Objekt. Das machte die API schwerer skalierbar und teurer im Betrieb als zustandslose Alternativen.
  • Vom Ökosystem isoliert. Assistenten konnten OpenAIs eingebaute Tools nutzen, hatten aber keinen standardisierten Weg, sich mit den Tausenden von Tools und Services zu verbinden, die die Community aufbaute.

Die Responses API löst alle drei Probleme. Sie ist standardmäßig zustandslos (mit optionalem State über die Conversations API), unterstützt Remote-MCP-Server nativ und bietet eingebaute Tools wie Websuche, Dateisuche, Code Interpreter und Computer Use, alles über einen einzigen API-Aufruf.

Der Migrationszeitplan

DatumEreignis
November 2023Assistants API startet
März 2025Responses API startet; OpenAI übernimmt MCP
August 2025Assistants API offiziell abgekündigt
26. August 2026Endgültige Abschaltung aller Assistants-API-Endpunkte

Entwicklern bleiben noch etwa fünf Monate. OpenAI hat einen Migrationsleitfaden veröffentlicht, aber die Migration ist nicht trivial. Thread-basiertes State-Management, Run-Polling und Assistenten-Konfiguration funktionieren im Responses-Modell grundlegend anders.

Warum OpenAI den eigenen Ansatz aufgegeben hat

OpenAI hat die Assistants API nicht abgekündigt, weil sie fehlerhaft war. Sie wurde abgekündigt, weil MCP sie überflüssig gemacht hat.

Als OpenAI im März 2025 MCP übernahm, hatte das Protokoll bereits kritische Masse erreicht. Sam Altman räumte es direkt ein: “People love MCP and we are excited to add support across our products.” Das war keine Höflichkeit. Das war ein Eingeständnis.

Die Zahlen erklären, warum:

  • Über 10.000 öffentliche MCP-Server im Verzeichnis, von Entwickler-Tools bis zu Enterprise-Systemen großer Konzerne
  • 97 Millionen monatliche SDK-Downloads für Python und TypeScript
  • Universelle Übernahme: ChatGPT, Cursor, Gemini, Microsoft Copilot, VS Code und dutzende weitere Tools unterstützen MCP nativ

Netzwerkeffekte haben die Assistants API stärker beschädigt als jede technische Schwäche. Sobald jedes große KI-Produkt MCP unterstützte, bedeutete eine proprietäre Alternative, dass Entwickler zwei Integrationsschichten pflegen müssten. Das wollte niemand.

Weiterlesen: OpenAI Agents SDK v0.9: Managed MCP, Agent-as-Tool und was sich für Ihren Stack ändert

Der AAIF-Faktor

Die Gründung der Agentic AI Foundation (AAIF) im Dezember 2025 beseitigte den letzten glaubwürdigen Einwand gegen MCP. Mit Anthropics Spende von MCP an eine neutrale Organisation unter der Linux Foundation und OpenAIs eigener Rolle als Mitgründer neben Block verschwand das Argument “von einem Wettbewerber kontrolliert”.

Die AAIF verwaltet jetzt MCP, AGENTS.md (OpenAIs eigener Beitrag) und Goose (Blocks Agent-Framework) mit 49 Mitgliedsorganisationen. Für DACH-Unternehmen ist das besonders relevant: Neutrale Governance unter der Linux Foundation erfüllt die Anforderungen an offene Standards, die viele Einkaufsabteilungen und IT-Compliance-Teams stellen.

Weiterlesen: Agentic AI Foundation: Wie die Linux Foundation die Agent-Ära standardisiert

Was das für Agent-Entwickler bedeutet

Die praktischen Auswirkungen hängen davon ab, wo man im Stack steht.

Wer noch auf der Assistants API baut

Bis zum 26. August 2026 muss migriert sein. Der Migrationspfad führt zur Responses API (für einmalige und mehrstufige Agent-Aufgaben) und zur Conversations API (für mehrstufige zustandsbehaftete Interaktionen). Die wichtigsten Unterschiede:

  • State-Management: Assistants nutzten serverseitige Threads. Responses ist zustandslos; der Kontext wird selbst verwaltet oder über Conversations persistent gehalten.
  • Tool-Aufrufe: Assistants hatten eingebaute Tools mit proprietären Schnittstellen. Responses unterstützt MCP-Server direkt, plus eingebaute Tools (Websuche, Code Interpreter, Dateisuche, Computer Use).
  • Multi-Tool-Ausführung: Die Responses API kann mehrere Tools innerhalb einer einzigen Anfrage aufrufen, was Assistants über sequenzielle Run Steps abwickelte.

Wer neu anfängt

Sofort mit MCP starten. Es gibt keinen Grund, Alternativen zu evaluieren.

Jedes relevante Framework unterstützt es: das OpenAI Agents SDK, LangChain, CrewAI, AutoGen und Mastra haben MCP-Integrationen. Der Agent verbindet sich mit jedem MCP-Server, ob GitHub-Repo, Postgres-Datenbank, Slack-Workspace oder interne API, über eine einzige standardisierte Schnittstelle.

Wer Enterprise-Architektur verantwortet

Für Unternehmen im DACH-Raum, die auf Azure OpenAI setzen, ist die Frage nach Datenresidenz und DSGVO-Konformität zentral. Microsoft hat bestätigt, dass die Assistants-API-Deprecation auch Azure OpenAI betrifft. Die Migration auf die Responses API ist dort genauso notwendig.

Das ist gleichzeitig das grüne Licht zur Standardisierung. Die Haltung “abwarten, welches Protokoll sich durchsetzt”, die viele Architektur-Teams 2025 eingenommen haben, hat eine klare Antwort. MCP ist der Tool-Integrationsstandard. A2A ist der Agent-zu-Agent-Standard. Beide liegen unter neutraler Governance bei der Linux Foundation.

Interne MCP-Server für proprietäre Systeme aufbauen. Interne APIs über MCP exponieren. Teams in MCP-Server-Entwicklung schulen. Das Protokoll wird nicht abgelöst, denn das Unternehmen, das am meisten davon profitiert hätte, hat gerade seine eigene Alternative verworfen.

Was als Nächstes kommt

Die MCP-Roadmap für 2026 beschreibt mehrere Bereiche, in denen das Protokoll noch reift:

  • Asynchrone Operationen: Lang laufende Aufgaben erfordern derzeit Workarounds. Nativer Async-Support ist geplant.
  • Verbesserungen bei Zustandslosigkeit: Bessere Unterstützung für rein zustandslose Server-Deployments, wichtig für Serverless- und Edge-Umgebungen.
  • Zusätzliche SDKs: Offizielle Unterstützung über Python und TypeScript hinaus für Java, Go, Rust und C#.
  • Security-Hardening: OAuth-2.1-Integration, Scoped Permissions und Audit-Logging für Enterprise-Einsätze.

Die Deprecation der Assistants API beschleunigt noch einen zweiten Trend: die Konvergenz von Agent-Frameworks auf eine gemeinsame Tool-Schicht. Wenn jedes Framework MCP spricht, verlagert sich die Differenzierung weg von “welche Tools kann ich anbinden” hin zu Orchestrierungslogik, Zuverlässigkeit und Developer Experience. Das ist eine gesündere Wettbewerbsdynamik für das gesamte Ökosystem.

Die Interoperabilitätsdebatte hat 2024 und 2025 enorme Energie verschlungen. Teams haben Projekte verzögert. Anbieter haben auf mehrere Protokolle gesetzt. Auf Konferenzen wurde diskutiert, welcher Standard sich durchsetzen würde. Das alles ist jetzt vorbei. Der Standard heißt MCP, die Governance ist neutral, und der größte Gegenspieler hat gerade kapituliert.

Zeit zu bauen.

Häufig gestellte Fragen

Wann wird die OpenAI Assistants API abgeschaltet?

Die OpenAI Assistants API wird am 26. August 2026 endgültig abgeschaltet. Danach funktionieren keine Assistants-API-Endpunkte mehr. OpenAI hat die API im August 2025 abgekündigt und empfiehlt die Migration auf die Responses API und Conversations API.

Was ersetzt die OpenAI Assistants API?

Die Responses API ersetzt die Assistants API für Agent-Workloads. Sie unterstützt native MCP-Server (Model Context Protocol), eingebaute Tools wie Websuche und Code Interpreter sowie Multi-Tool-Ausführung in einer einzigen Anfrage. Für zustandsbehaftete Mehrrunden-Konversationen bietet die Conversations API optionale Persistenz.

Warum hat OpenAI MCP übernommen statt die eigene API weiterzuentwickeln?

MCP erreichte eine überwältigende Ökosystem-Übernahme mit über 10.000 öffentlichen Servern und 97 Millionen monatlichen SDK-Downloads. Jedes große KI-Produkt, darunter ChatGPT, Cursor, Gemini und Microsoft Copilot, unterstützt MCP. Eine proprietäre Alternative hätte bedeutet, dass Entwickler zwei Integrationsschichten pflegen müssen.

Betrifft die Deprecation auch Azure OpenAI?

Ja. Microsoft hat bestätigt, dass die Abkündigung der Assistants API auch Azure OpenAI betrifft. DACH-Unternehmen, die auf Azure OpenAI für Datenresidenz und DSGVO-Konformität setzen, müssen ebenfalls auf die Responses API migrieren.

Wird MCP von Anthropic kontrolliert?

Nein. Anthropic hat MCP im Dezember 2025 an die Agentic AI Foundation (AAIF) unter der Linux Foundation gespendet. Die AAIF wurde von Anthropic, Block und OpenAI mitgegründet und hat 49 Mitgliedsorganisationen, darunter AWS, Google, Microsoft und SAP. Ein unternehmensübergreifendes Steering Committee steuert die technische Roadmap.