Amazon Bedrock AgentCore ist die Managed-Plattform, mit der AWS Unternehmen das Deployment von KI-Agenten abnimmt: Runtime, Memory, Tool-Gateway, Identity und Observability in einem Service. Seit dem GA-Release im Oktober 2025 ist AgentCore das umfassendste Agent-Infrastruktur-Angebot aller Hyperscaler. Wer Agenten auf AWS betreibt oder darüber nachdenkt, sollte diese Plattform kennen. Sie ersetzt die Phase “Deployment klären wir später” in jedem Agent-Projekt.
Das Prinzip: Sie bringen Ihren Agent-Code mit (geschrieben in LangGraph, CrewAI, Strands Agents, OpenAI Agents SDK oder einem beliebigen Framework), und AgentCore übernimmt Runtime, Tool-Zugriff, Speicher, Authentifizierung und Monitoring. Keine ECS-Cluster konfigurieren, keine eigenen Memory-Stores pflegen, keine OAuth-Flows für jede Drittanbieter-Integration bauen.
Die fünf Säulen von AgentCore
AgentCore ist kein einzelner Service, sondern fünf eng verzahnte Dienste, die unabhängig oder zusammen genutzt werden können. Wer versteht, was jede Komponente leistet, kann schnell entscheiden, ob die Plattform zum eigenen Stack passt.
Runtime: Serverless Agent-Ausführung
Die AgentCore Runtime ist eine Serverless-Compute-Umgebung, die speziell für KI-Agenten gebaut wurde. Anders als Lambda (15-Minuten-Limit, Kaltstart-Probleme) unterstützt die Runtime lang laufende Agent-Sessions, echte Session-Isolation und multimodale Workloads.
Das Abrechnungsmodell ist verbrauchsbasiert: 0,0895 USD pro vCPU-Stunde, sekundengenau berechnet auf Basis der tatsächlichen CPU-Nutzung und des Speichers. I/O-Wartezeit und Leerlauf sind kostenlos. Für Agenten, die den Großteil ihrer Zeit auf LLM-Antworten oder API-Calls warten, ist das entscheidend: Sie zahlen nicht für die Sekunden, in denen Ihr Agent auf eine Netzwerkantwort wartet.
Die Runtime funktioniert mit jedem Python-Agent-Framework. Das Samples-Repository von AWS enthält Beispiele für LangGraph, CrewAI, LlamaIndex und das hauseigene Strands Agents SDK.
Gateway: MCP-kompatible Tool-Anbindung
Das AgentCore Gateway löst ein Problem, das jedes Enterprise-Agent-Team im ersten Monat trifft: Agenten sicher an interne Tools und APIs anbinden. Gateway ist ein Managed Model Context Protocol (MCP) Server, der bestehende APIs, Lambda-Funktionen und Services in MCP-kompatible Tools umwandelt, die jeder Agent entdecken und aufrufen kann.
Die Schlüsselfunktion ist das Credential Management. Gateway übernimmt OAuth-Ingress-Autorisierung und sicheren Egress-Credential-Austausch. Ihre Agenten können sich bei Slack, Salesforce, Jira oder jedem anderen OAuth-basierten Dienst authentifizieren, ohne dass Sie für jede Integration eine eigene Auth-Schicht bauen. Bei 0,005 USD pro 1.000 Tool-Aufrufe sind die Kosten praktisch zu vernachlässigen.
Memory: Kurzzeit- und Langzeitkontext
AgentCore Memory bietet zwei Arten von Persistenz. Der Kurzzeitspeicher verwaltet den Konversationszustand innerhalb einer Session. Der Langzeitspeicher bleibt über Sessions hinweg erhalten und ermöglicht Agenten, Nutzerpräferenzen zu merken, aus vergangenen Interaktionen zu lernen und Kontext zwischen mehreren Agenten zu teilen.
Die Kosten liegen bei 0,25 USD pro 1.000 Kurzzeit-Memory-Events. Für die meisten Workloads ist das ein Rundungsfehler. Der eigentliche Wert liegt darin, keine separate Memory-Infrastruktur aufbauen und pflegen zu müssen. Teams, die das schon mit Redis, Pinecone oder Postgres versucht haben, wissen, wie schnell die Komplexität explodiert, sobald Cross-Session-Retrieval, Memory-Komprimierung und Multi-Agent-Memory-Sharing dazukommen.
Identity: Zugriffskontrolle auf Agent-Ebene
AgentCore Identity gibt jedem Agenten eine eigene Identitäts- und Zugriffsschicht. Agenten können sich bei AWS-Services und Drittanbieter-Anwendungen (Slack, Zoom, GitHub) über Standard-Identity-Provider wie Okta, Entra oder Amazon Cognito authentifizieren. Diese Komponente überspringen die meisten selbstgebauten Agent-Plattformen, und genau sie blockiert das Produktions-Deployment bei sicherheitsbewussten Organisationen.
Statt API-Keys fest im Code zu verdrahten oder Credentials über Umgebungsvariablen durchzureichen, bekommen Agenten IAM-artige Berechtigungen. Sie definieren, worauf jeder Agent zugreifen darf, und Identity setzt es durch. Für DACH-Unternehmen, die unter DSGVO und dem EU AI Act strengere Anforderungen an die Datenverarbeitung durch KI-Systeme erfüllen müssen, ist diese granulare Zugriffskontrolle kein Nice-to-have, sondern Voraussetzung.
Observability: Agent-Ausführung nachvollziehen
AgentCore Observability liefert Schritt-für-Schritt-Visualisierung der Agent-Ausführung mit Metadata-Tagging, Custom Scoring, Trajektorie-Inspektion und Debugging-Filtern. Wer mit Agent-Systemen in Produktion gearbeitet hat, weiß: “Der Agent hat eine falsche Antwort gegeben” ist als Bug-Report nutzlos. Man muss exakt sehen, welche Tool-Calls der Agent gemacht hat, welchen Kontext er bei jedem Schritt hatte und wo die Reasoning-Kette abgebogen ist.
AgentCore im Vergleich mit Google ADK und OpenAI Agents SDK
Die Wettbewerbslandschaft für Agent-Plattformen hat drei Ebenen: vollständige Infrastruktur-Plattformen (AgentCore, Azure AI Agent Service), Framework-first-Angebote (Google ADK, OpenAI Agents SDK) und Open-Source-Stacks (LangGraph + eigene Infra).
Google ADK ist Framework-first. Es liefert das SDK zum Bauen von Agenten mit tiefer Gemini-Integration, MCP- und A2A-Support und Multi-Agent-Routing. Aber es enthält keine Managed Runtime, keinen Memory-Service und keine Identity-Schicht, die mit AgentCore vergleichbar wären. Man bekommt die Bausteine, die Infrastruktur verwaltet man selbst. Für Teams, die bereits auf GCP mit Vertex AI arbeiten, ist ADK die natürliche Wahl. Für Teams, die schlüsselfertige Deployment-Infrastruktur brauchen, bleiben Lücken.
OpenAI Agents SDK ist leichtgewichtig und modellflexibel. Es stellt Agent-Primitive bereit (Tools, Handoffs, Guardrails) mit einer sauberen Python-API. Aber wie ADK ist es ein Framework, keine Plattform. Es gibt keine Managed Runtime, keine eingebaute Memory-Persistenz, kein Gateway.
AgentCores Differenzierung liegt darin, dass es Infrastruktur ist, kein Framework. Es ist egal, mit welchem SDK Sie Ihren Agenten gebaut haben. Sie können einen LangGraph-Agenten, eine CrewAI-Crew, einen Google-ADK-Agenten oder sogar einen OpenAI-Agents-SDK-Agenten auf der AgentCore Runtime betreiben. Die Plattform kümmert sich um die operativen Themen (Skalierung, Auth, Memory, Monitoring), während Sie die volle Kontrolle über die Agent-Logik behalten.
Der Kompromiss: Diese Flexibilität kommt mit AWS-Lock-in auf der Infrastruktur-Ebene. Ihr Agent-Code ist portabel, aber Ihre Deployment-Pipeline, Memory-Stores und Identity-Konfiguration sind es nicht.
Wann AgentCore sinnvoll ist (und wann nicht)
AgentCore lohnt sich, wenn:
- Sie bereits auf AWS unterwegs sind und mehrere Agenten mit geteiltem Memory, Tool-Zugriff und Identity Management betreiben
- Ihre Agenten sich bei Drittanbieter-Services authentifizieren müssen (Gateways OAuth-Handling spart Wochen an Integrationsarbeit)
- Sie produktionsreife Observability brauchen und den Bau einer eigenen Tracing-Pipeline nicht rechtfertigen können
- Ihr Sicherheitsteam Agent-Level-IAM und Session-Isolation verlangt, bevor es das Produktions-Deployment freigibt
- Sie Agenten aus verschiedenen Frameworks betreiben wollen, ohne für jedes eine separate Infrastruktur zu managen
Finger weg von AgentCore, wenn:
- Sie einen einzelnen Agent-Prototyp bauen. Der Overhead für die Konfiguration von Runtime, Gateway und Identity lohnt sich nicht für einen Proof-of-Concept
- Sie voll auf GCP oder Azure setzen. Jede Cloud hat ihre eigene Agent-Plattform-Geschichte, und Cross-Cloud-Agent-Infrastruktur schafft unnötige Reibung
- Ihre Agenten einfache Function-Calling-Wrapper sind, die weder persistentes Memory, komplexes Tool-Routing noch Multi-Agent-Koordination brauchen
- Kostenplanbarkeit entscheidend ist. Verbrauchsbasierte Abrechnung bedeutet, dass Ihre Rechnung mit der Agent-Aktivität skaliert, was Teams überraschen kann, die feste Infrastrukturkosten gewohnt sind
Praxisbeispiele seit dem GA-Release
Seit dem GA-Release setzen AWS-Partner auf AgentCore. Epsilon berichtet von 30% schnellerer Kampagnen-Erstellung, 20% mehr Personalisierung und 8 eingesparten Stunden pro Team pro Woche nach dem Deployment von Marketing-Agenten auf der Plattform. NVIDIA hat Integrationsanleitungen für das Ausführen von NeMo-basierten Agenten auf der AgentCore Runtime veröffentlicht.
Die Plattform unterstützt auch Agent-to-Agent-Protokollkommunikation. Agenten auf AgentCore können mit Agenten auf anderen Plattformen über standardisierte Protokolle kommunizieren. Für Unternehmen mit gemischten Agent-Ökosystemen (einige auf AWS, einige on-prem, einige auf anderen Clouds) ist diese Interoperabilität das Feature, das Multi-Agent-Architekturen ermöglicht, ohne alles auf eine einzige Plattform zu zwingen.
Preisübersicht
AgentCores verbrauchsbasiertes Modell bedeutet: Sie zahlen nur, was Sie nutzen, ohne Vorabverpflichtungen:
| Service | Preis |
|---|---|
| Runtime (CPU) | 0,0895 USD/vCPU-Stunde |
| Runtime (Memory) | Basierend auf Spitzenverbrauch |
| Gateway | 0,005 USD/1.000 Aufrufe |
| Kurzzeit-Memory | 0,25 USD/1.000 Events |
| Code Interpreter | Pro Session |
| Browser | Pro Session |
Für ein Team mit 10 Agenten bei moderater Aktivität (ein paar hundert Aufrufe pro Tag pro Agent) liegen die monatlichen AgentCore-Kosten im niedrigen dreistelligen Dollar-Bereich, vor den Modell-Inferenzkosten. Verglichen mit einer Eigenentwicklung auf ECS oder EKS, bei der Engineering-Zeit für Memory, Auth und Observability dazukommt, ist das Pricing wettbewerbsfähig.
Alle Preisdetails finden Sie auf der AWS-Preisseite.
Häufig gestellte Fragen
Was ist Amazon Bedrock AgentCore?
Amazon Bedrock AgentCore ist eine Managed-AWS-Plattform für das Deployment und den Betrieb von KI-Agenten im Enterprise-Maßstab. Sie umfasst fünf Kernservices: Runtime (Serverless Agent-Ausführung), Gateway (MCP-kompatible Tool-Anbindung), Memory (Kurzzeit- und Langzeitkontext), Identity (Zugriffskontrolle auf Agent-Ebene) und Observability (Ausführungs-Tracing und Debugging). Sie funktioniert mit jedem Agent-Framework, darunter LangGraph, CrewAI und OpenAI Agents SDK.
Was kostet Amazon Bedrock AgentCore?
AgentCore nutzt verbrauchsbasierte Preise ohne Vorabverpflichtungen. Runtime kostet 0,0895 USD pro vCPU-Stunde (sekundengenau abgerechnet, Leerlauf ist kostenlos), Gateway kostet 0,005 USD pro 1.000 Tool-Aufrufe, und Kurzzeit-Memory kostet 0,25 USD pro 1.000 Events. Modell-Inferenzkosten kommen separat dazu. Für ein Team mit 10 moderat aktiven Agenten liegen die AgentCore-Infrastrukturkosten im niedrigen dreistelligen Bereich pro Monat.
Funktioniert AgentCore mit LangGraph, CrewAI oder anderen Open-Source-Frameworks?
Ja. AgentCore ist Framework-agnostisch. Es unterstützt jedes Python-Agent-Framework, darunter LangGraph, CrewAI, LlamaIndex, Strands Agents, Google ADK und OpenAI Agents SDK. Sie bringen Ihren Agent-Code mit, und AgentCore übernimmt die Infrastruktur: Runtime, Memory, Tool-Zugriff, Authentifizierung und Monitoring.
Wie unterscheidet sich AgentCore von Google ADK und OpenAI Agents SDK?
AgentCore ist eine Infrastruktur-Plattform, während Google ADK und OpenAI Agents SDK Frameworks sind. ADK und das Agents SDK helfen beim Bauen der Agent-Logik, überlassen aber die Infrastruktur (Runtime, Memory, Identity, Observability) dem Nutzer. AgentCore stellt die Managed-Infrastruktur bereit und akzeptiert Agenten, die mit jedem Framework gebaut wurden, einschließlich ADK und dem Agents SDK. Der Kompromiss ist AWS-Infrastruktur-Lock-in im Austausch gegen schlüsselfertiges Deployment und Betrieb.
Ist AgentCore für DACH-Unternehmen relevant?
Ja, besonders wegen der Identity-Komponente. Unter DSGVO und dem EU AI Act müssen Unternehmen nachweisen, welche KI-Systeme auf welche Daten zugreifen. AgentCores granulare Zugriffskontrolle auf Agent-Ebene mit Standard-Identity-Providern (Okta, Entra, Cognito) macht Compliance nachweisbar. Dazu kommt die Observability-Komponente, die eine lückenlose Nachvollziehbarkeit der Agent-Aktionen ermöglicht.
