Foto von Lukas auf Pexels (freie Lizenz) Source

Mastra, das TypeScript-KI-Agent-Framework vom Team hinter Gatsby, hat 300.000 wöchentliche npm-Downloads und 22.000 GitHub-Stars erreicht, noch vor dem stabilen 1.0-Release. Das Startup sammelte 13 Millionen Dollar Seed-Finanzierung unter Führung von Y Combinator ein. Laut npm-Daten ist es das am drittschnellsten wachsende JavaScript-Framework aller Zeiten. Wer TypeScript schreibt und KI-Agenten bisher nur beobachtet hat, sollte jetzt genauer hinsehen.

Die erste Generation der Agent-Frameworks war Python-dominiert: LangGraph, CrewAI, AutoGen. Das war logisch, solange Agenten hauptsächlich in Jupyter-Notebooks entstanden. Aber 2026 werden Agenten als Produkte ausgeliefert, nicht als Prototypen. Sie brauchen Echtzeit-UIs, Streaming-Antworten, Authentifizierung und Deployment-Pipelines. Das ist Web-Infrastruktur, und Web-Infrastruktur spricht JavaScript.

Weiterlesen: KI-Agent-Frameworks im Vergleich: LangGraph, CrewAI, AutoGen

Das TypeScript-KI-Agent-Ökosystem im März 2026

Drei Frameworks bestimmen den TypeScript-Agent-Markt, jedes für einen anderen Anwendungsfall.

Mastra ist das Full-Stack-Framework. Es liefert Agenten, Workflows, RAG, Memory, Evals und eine lokale Entwicklungsumgebung namens Mastra Studio in einem Paket. Vergleichbar mit Next.js für KI-Agenten: opinionierte Defaults, Batterien inklusive, gebaut für Entwickler, die schnell ausliefern wollen, ohne fünf Bibliotheken zusammenzustecken.

Vercel AI SDK ist die Integrationsschicht. Mit 2,8 Millionen wöchentlichen npm-Downloads dominiert es das React/Next.js-Ökosystem. Seine Stärke liegt bei Streaming-UI-Komponenten, strukturierter Generierung und Multi-Provider-Support (über 25 LLM-Anbieter über eine Schnittstelle). Wer KI-Features in eine bestehende Next.js-App einbaut, greift standardmäßig hierzu.

LangGraph.js bringt LangChains graphbasierte Orchestrierung nach TypeScript. Agent-Logik wird als Knoten und Kanten definiert, was komplexe Workflows mit Verzweigungen, Schleifen und bedingter Logik explizit und auditierbar macht. Es hat 529.000 wöchentliche npm-Downloads und volle Feature-Parität mit dem Python-Pendant.

Zwei weitere Frameworks, die man beobachten sollte: AgentKit von Inngest für dauerhafte, im Hintergrund laufende Agent-Workflows und das OpenAI Agents SDK, das kürzlich TypeScript-Support neben dem Python-Kern hinzugefügt hat.

Warum nicht einfach Python?

Berechtigte Frage. Python hat nach wie vor das größere Ökosystem für ML und Data Science. Aber das Argument für TypeScript-Agenten zielt nicht darauf ab, Python beim Modelltraining zu ersetzen. Es geht darum, wo Agenten tatsächlich laufen.

Ein Kundensupport-Agent, der 50.000 Gespräche pro Tag führt, braucht WebSocket-Verbindungen, Streaming-Antworten und Session-Management. Ein Vertriebsagent, der Leads qualifiziert, muss sich in CRM-APIs integrieren, E-Mails versenden und Datenbanken in Echtzeit aktualisieren. Ein Coding-Agent in VS Code läuft in einem Node.js-Prozess.

Das sind alles JavaScript-native Umgebungen. Einen Python-Subprozess zu starten, eine virtuelle Umgebung zu verwalten und Daten über die Sprachgrenze zu serialisieren erzeugt Reibung, die TypeScript-Agenten komplett eliminieren.

Mastra im Detail: Was es von anderen unterscheidet

Mastra ist nicht nur ein weiterer Wrapper um LLM-APIs. Es ist ein opinioniertes Framework, das die Infrastruktur liefert, die KI-Agenten in Produktion brauchen.

Agenten und Tool Calling

Ein Mastra-Agent ist eine TypeScript-Klasse, die ein LLM mit einem Satz von Tools verbindet. Tools werden als typisierte Funktionen definiert:

import { Agent, createTool } from '@mastra/core';
import { z } from 'zod';

const wetterTool = createTool({
  id: 'get-weather',
  description: 'Aktuelles Wetter für eine Stadt abrufen',
  inputSchema: z.object({ city: z.string() }),
  execute: async ({ context }) => {
    const res = await fetch(`https://api.weather.gov/...`);
    return res.json();
  },
});

const agent = new Agent({
  name: 'wetter-agent',
  model: openai('gpt-4o'),
  tools: { wetterTool },
  instructions: 'Du hilfst Nutzern bei der Wetterauskunft.',
});

Der Agent entscheidet selbständig, welche Tools er aufruft, in welcher Reihenfolge und wann er aufhört. Das ist Standard-Agentenverhalten, aber Mastra wickelt es mit voller TypeScript-Typsicherheit ab. Die IDE fängt falsche Schemas ab, bevor der Code überhaupt läuft.

Workflows für komplexe Pipelines

Wo Mastra einfachere Agent-Wrapper hinter sich lässt, ist die Workflow-Engine. Workflows definieren mehrstufige Prozesse als gerichtete Graphen mit Verzweigungen, paralleler Ausführung und Human-in-the-Loop-Suspension:

const onboardingWorkflow = new Workflow({ name: 'kunden-onboarding' })
  .step(validateInput)
  .then(enrichFromCRM)
  .branch([
    [isEnterprise, assignDedicatedRep],
    [isStartup, addToSelfServe],
  ])
  .then(sendWelcomeEmail)
  .commit();

Workflows können pausieren, auf eine menschliche Genehmigung warten und Stunden später fortgesetzt werden, ohne den Zustand zu verlieren. Für Teams, die Agenten für echte Geschäftsprozesse bauen (nicht nur Chat), ist das die entscheidende Funktion.

Memory und RAG

Mastra unterstützt sowohl Kurzzeitgedächtnis (innerhalb eines Gesprächs) als auch Langzeitgedächtnis (über Sessions hinweg). Zusätzlich bietet es eine integrierte RAG-Pipeline: Daten aus APIs, Datenbanken oder Web-Scraping werden in einen Vektorspeicher synchronisiert, den Agenten zur Laufzeit abfragen können.

Das ist wichtig, weil die meisten Produktions-Agenten Kontext jenseits des Gesprächs brauchen. Ein Support-Agent muss die Kundenhistorie kennen. Ein Recherche-Agent muss interne Dokumente durchsuchen können. Mastra übernimmt Indexierung, Chunking und Retrieval, ohne dass eine separate Bibliothek nötig ist.

Mastra Studio

Die lokale Entwicklungsumgebung Mastra Studio ist ernsthaft nützlich. Sie visualisiert Agent-Workflows, erlaubt interaktives Testen von Tool-Aufrufen und zeigt Ausführungstraces Schritt für Schritt. Wer LangSmith für Python-Agenten kennt: Studio ist das TypeScript-Äquivalent, das lokal läuft, ohne einen Cloud-Service zu benötigen.

Weiterlesen: MCP und A2A: Die Protokolle, die KI-Agenten miteinander kommunizieren lassen

Mastra, Vercel AI SDK oder LangGraph.js: Welches Framework passt?

Die Entscheidung hängt davon ab, was gebaut werden soll, nicht welches Framework mehr Stars hat.

Mastra wählen, wenn ein eigenständiges KI-Produkt von Grund auf gebaut wird. Agenten, Workflows, RAG und Memory werden in einem zusammenhängenden Paket benötigt. Das Team ist bereit, ein neueres Framework mit Y-Combinator-Rückendeckung und dem Gatsby-Team dahinter einzusetzen. Unternehmen wie PayPal, Adobe und Docker setzen Mastra bereits in Produktion ein.

Vercel AI SDK wählen, wenn KI-Features in eine bestehende Next.js- oder React-Anwendung integriert werden sollen. Streaming-Chat-UIs, strukturierte Outputs oder Multi-Provider-Model-Routing werden gebraucht. Kein vollständiges Agent-Framework nötig, nur eine solide Integrationsschicht. Das Vercel AI SDK hat kürzlich Version 6 veröffentlicht mit verbesserten Agent-Primitiven, aber sein Sweetspot bleibt bei UI-zentrierten KI-Features.

LangGraph.js wählen, wenn feinkörnige Kontrolle über komplexe, mehrstufige Agent-Workflows benötigt wird. Das Team nutzt bereits LangChain in Python und möchte Feature-Parität in TypeScript. Enterprise-Grade Observability über LangSmith ist gefragt. Compliance-Anforderungen, etwa durch den EU AI Act, verlangen, dass jede Agentenentscheidung protokolliert und auditierbar ist.

FeatureMastraVercel AI SDKLangGraph.js
Agent-FrameworkVollständigBasis (v6)Vollständig
Workflow-EngineIntegriertNeinGraphbasiert
RAG-PipelineIntegriertNeinVia LangChain
Memory-SystemKurz- + LangzeitNeinCheckpointing
Dev-PlaygroundMastra StudioNeinLangSmith (Cloud)
npm wöchentliche Downloads300K+2,8M+529K+
Am besten fürEigenständige KI-ProdukteKI-Features in Next.jsKomplexe Agent-Orchestrierung

Mastra vs LangChain: Die Python-zu-TypeScript-Frage

Der Vergleich “Mastra vs LangChain” ist die häufigste Frage, die TypeScript-Entwickler stellen, wenn sie in den Agent-Bereich einsteigen. Die Antwort hängt davon ab, welches LangChain-Produkt gemeint ist.

LangChain (die Python-Bibliothek) hat das größte Agent-Ökosystem nach allen Maßstäben: über 100 LLM-Provider-Integrationen, mehr als 50 Vektorspeicher-Konnektoren und hunderte vorgefertigte Tools. Rund 400 Unternehmen betreiben LangGraph Platform in Produktion, darunter Cisco, Uber, LinkedIn und JPMorgan. Für Python-first-Teams ist diese Ökosystem-Tiefe schwer zu übertreffen.

LangGraph.js (der TypeScript-Port) bietet volle Feature-Parität mit LangGraphs Python-Version. Aber LangGraph.js ist eine Runtime für graphbasierte Agent-Logik, kein vollständiges Application-Framework. RAG-Pipeline, Memory-System und Dev-Tooling müssen selbst zusammengesteckt werden.

Mastra ist das Framework für Teams, die ein zusammenhängendes Gesamtpaket wollen. Replit setzte Mastra in Agent 3 ein und berichtete, dass die Task-Erfolgsrate von 80% auf 96% stieg. Marsh McLennan rollte ein Mastra-basiertes Suchtool an 75.000 Mitarbeiter aus. Der Kompromiss: Mastras Ökosystem ist neuer und kleiner, mit weniger Drittanbieter-Integrationen.

Die praktische Faustregel: Wer 30 Datenquellen anbinden muss und battle-tested Produktions-Observability über LangSmith braucht, greift zu LangGraph.js. Wer den schnellsten Weg von Null zu einem funktionierenden TypeScript-Agent-Produkt sucht, nimmt Mastra.

Weiterlesen: KI-Agent-Frameworks Tier List 2026: Welche tatsächlich in Produktion laufen

Was das für das Agent-Ökosystem bedeutet

Die TypeScript-Agent-Welle ist kein Sprachenkrieg. Sie ist ein Zeichen dafür, dass KI-Agenten von Research-Tooling zu produktionsreifer Software-Entwicklung übergegangen sind.

Wenn das Gatsby-Kernteam auf KI-Infrastruktur umschwenkt, wenn Y Combinator ein TypeScript-Agent-Framework in der Seed-Phase finanziert, wenn npm-Download-Zahlen mit etablierten Web-Frameworks mithalten, ist das Signal eindeutig: Agenten werden ein Standardbestandteil des Web-Stacks.

Für Python-first-Teams bedeutet das keinen Sprachwechsel. LangGraph pflegt volle Parität in beiden Sprachen. Aber für die Millionen von JavaScript-Entwicklern, die seit Jahren Webanwendungen bauen, ist die Einstiegshürde für KI-Agenten gerade auf Null gesunken. Kein Python lernen, kein Conda einrichten, keine pip-Konflikte lösen. npm install @mastra/core und los geht es.

Das MCP-Protokoll macht das noch interessanter. Mastra unterstützt MCP bereits, was bedeutet, dass TypeScript-Agenten dasselbe Tool-Ökosystem nutzen können wie Python-Agenten. Die Sprachgrenze für Agent-Capabilities löst sich auf.

Weiterlesen: Was sind KI-Agenten? Ein praktischer Leitfaden für Entscheider

Häufig gestellte Fragen

Was ist Mastra und wer hat es entwickelt?

Mastra ist ein TypeScript-Framework zum Bauen von KI-Agenten und -Anwendungen. Es wurde vom Team hinter Gatsby (dem React-Static-Site-Generator) entwickelt, hat 13 Millionen Dollar Seed-Finanzierung von Y Combinator erhalten und 300.000 wöchentliche npm-Downloads sowie 22.000 GitHub-Stars vor dem stabilen 1.0-Release erreicht.

Soll ich TypeScript oder Python für KI-Agenten verwenden?

Das hängt von der Deployment-Umgebung ab. Python bleibt stärker für ML-Forschung und Data-Science-Workflows. TypeScript eignet sich besser für Agenten mit Web-Integration: Echtzeit-UIs, Streaming-Antworten, WebSocket-Verbindungen und enge Integration mit bestehenden Webanwendungen. Viele Teams nutzen beide Sprachen, wobei LangGraph volle Feature-Parität zwischen Python und TypeScript bietet.

Wie unterscheidet sich Mastra vom Vercel AI SDK?

Mastra ist ein vollständiges Agent-Framework mit integrierten Workflows, RAG, Memory und einer Entwicklungsumgebung. Das Vercel AI SDK ist eine Integrationsschicht, optimiert für KI-Features in React/Next.js-Apps, mit Stärken bei Streaming-UI und Multi-Provider-Model-Routing. Mastra für eigenständige KI-Produkte, Vercel AI SDK für KI-Erweiterungen bestehender Webanwendungen.

Unterstützt Mastra MCP (Model Context Protocol)?

Ja. Mastra hat integrierte MCP-Unterstützung, sodass TypeScript-Agenten sich mit dem breiteren MCP-Tool-Ökosystem verbinden können. Das bedeutet, dass mit Mastra gebaute Agenten dieselben Tools und Integrationen nutzen können, die auch Python-basierten Agent-Frameworks zur Verfügung stehen.

Wie unterscheidet sich Mastra von LangChain für KI-Agenten?

LangChain hat das größere Ökosystem mit über 100 LLM-Integrationen, mehr als 50 Vektorspeichern und LangSmith für Produktions-Observability. Mastra ist TypeScript-first mit integrierten Workflows, RAG, Memory und Dev-Tooling in einem Paket. LangGraph.js (LangChains TypeScript-Port) bietet graphbasierte Orchestrierung mit voller Python-Feature-Parität, erfordert aber mehr Eigenarbeit. Mastra ist schneller für neue TypeScript-native Projekte; LangChain ist stärker bei tiefen Ökosystem-Integrationen oder Python-Interop.

Welche Unternehmen setzen Mastra in Produktion ein?

Unternehmen wie PayPal, Adobe, Elastic, Docker, Replit und WorkOS haben Mastra entweder in Produktion deployed oder Fallstudien über ihre Implementierungen veröffentlicht. Die Y-Combinator-Finanzierung und die schnelle Verbreitung machen Mastra zu einer beliebten Wahl für Teams, die TypeScript-native KI-Produkte bauen.