Foto von Antonio Batinić auf Pexels Source

OpenCode ist ein kostenloser Open-Source Coding Agent, der 120.000 GitHub-Sterne erreicht hat, weil er das eine Problem löst, das jedes kommerzielle KI-Coding-Tool ignoriert: Anbieter-Abhängigkeit. Entwickelt vom Team hinter SST (dem Open-Source Serverless Framework), läuft OpenCode im Terminal, verbindet sich mit über 75 LLM-Anbietern und kostet keinen Cent. Du bringst deinen eigenen API-Key mit oder nutzt ein lokales Modell auf deinem Rechner. Fünf Millionen Entwickler nutzen es monatlich. Damit ist es nach Langflow das zweitmeist gestarnte Agentic-AI-Repository auf GitHub.

Diese Sternezahl ist keine Eitelkeitsmetrik. Sie steht für die Überzeugung, dass ein Coding Agent offene Infrastruktur sein sollte, kein Abo-Produkt.

Das Problem: Drei Abos für drei Tools

Jedes kommerzielle Coding-Tool erzwingt eine Entscheidung. Cursor bindet dich an ein Credit-System. Claude Code verlangt ein Anthropic-Abo für 20 Dollar im Monat. GitHub Copilot sperrt dich ins GitHub-Ökosystem. Wechselst du den Anbieter, verlierst du deinen Workflow.

OpenCode verwirft dieses Modell komplett. Die Architektur ist anbieteragnostisch: OpenAI, Anthropic Claude, Google Gemini, AWS Bedrock, Groq, Azure OpenAI, OpenRouter und lokale Modelle über Ollama, llama.cpp und LM Studio werden unterstützt. Du konfigurierst deinen Anbieter in einer einzigen Datei und wechselst, ohne irgendetwas an deinem Workflow zu ändern.

Warum das wichtiger ist, als es klingt: Wenn Anthropic ein neues Claude-Modell veröffentlicht, das auf SWE-bench besser abschneidet, wechselst du in 30 Sekunden. Wenn ein günstigerer Anbieter die Preise senkt, verlagerst du alltägliche Coding-Aufgaben dorthin und sparst das teure Modell für komplexe Refactorings. Wenn dein Unternehmen verlangt, dass kein Code das Netzwerk verlässt, zeigst du OpenCode auf ein selbst gehostetes Modell und arbeitest weiter.

Für deutsche Unternehmen mit strengen DSGVO-Anforderungen ist der letzte Punkt entscheidend. Kein Cloud-Anbieter, kein Datenabfluss, kein Auftragsverarbeitungsvertrag nötig, wenn das Modell im eigenen Rechenzentrum läuft.

Architektur: Go-Binary trifft SolidJS-Terminal

Die meisten Coding Agents sind entweder Electron-Apps, die sich als leichtgewichtig ausgeben, oder Python-Skripte, die mit String-Formatting zusammengehalten werden. OpenCode ist keins von beidem. Es ist in Go geschrieben, startet in unter 200ms und kommt als einzelne Binary ohne Abhängigkeiten.

Die ungewöhnliche Architekturentscheidung steckt im TUI-Layer. OpenCode nutzt einen Client/Server-Split: Das Go-Backend übernimmt LLM-Kommunikation, Dateioperationen und Tool-Ausführung. Die Terminal-Oberfläche ist mit OpenTUI gebaut, einer SolidJS-basierten Rendering-Library für das Terminal. Beide kommunizieren über HTTP und Server-Sent Events.

Das ist ungewöhnlich. Die meisten Terminal-Tools nutzen Libraries wie Bubble Tea oder Charm für ihre Oberfläche. OpenCode hat ein eigenes reaktives Rendering-Framework gebaut, damit die Terminal-UI Echtzeit-Streaming, Multi-Pane-Layouts und responsive Updates verarbeiten kann, ohne die Agent-Arbeit zu blockieren.

Was das in der Praxis bedeutet:

  • Session-Management: Konversationen werden in einer lokalen SQLite-Datenbank gespeichert. Du kannst dort weitermachen, wo du aufgehört hast, eine Konversation verzweigen oder vergangene Sessions durchsuchen.
  • LSP-Integration: OpenCode verbindet sich mit dem Language Server Protocol deines Projekts. Der KI-Agent hat dieselbe Code-Intelligenz wie dein Editor: Jump-to-Definition, Find-References, Typ-Informationen.
  • Tool-Ausführung: Der Agent kann Shell-Befehle ausführen, Dateien ändern, Projektstruktur lesen und auf Test-Fehler iterieren. Agentic-Coding-Standardmuster, aber lokal und ohne Cloud-Sandbox.
  • Vim-Keybindings: Die Texteingabe unterstützt Vim-Tastenkürzel nativ. Kein nachträglicher Modus, sondern Standard für Entwickler, die bereits in hjkl denken.

Die Single-Binary-Distribution ist für Teams relevant. Kein Node.js-Runtime, keine Python-Virtual-Environment, kein Docker-Container. Herunterladen, API-Key setzen, loslegen. DevOps-Teams, die es in CI/CD-Pipelines einbinden, schätzen das mehr als Einzelentwickler.

OpenCode vs Claude Code vs Cursor: Wo jedes Tool gewinnt

Weiterlesen: Claude Code vs Cursor vs GitHub Copilot: Das richtige KI-Coding-Tool wählen

Der Vergleich dreht sich nicht um “besser” oder “schlechter”. Jedes Tool besetzt eine andere Position im Dreieck aus Kontrolle, Kosten und Fähigkeiten.

Kontextfenster und Reasoning-Tiefe

Claude Codes 1-Million-Token-Kontextfenster ist sein definierender Vorteil. Es kann eine komplette mittelgroße Codebasis im Arbeitsspeicher halten und über Dateien hinweg denken, die nichts miteinander zu tun haben. OpenCodes Kontextfenster hängt vom gewählten Anbieter ab: Mit Claude über die API bekommst du dasselbe Kontextfenster, zahlst aber pro Token statt pro Monat. Mit GPT-4o sind es 128K Tokens. Mit einem lokalen Llama-Modell vielleicht 8K.

Das ist der zentrale Trade-off. OpenCode gibt dir Wahlfreiheit, aber die Obergrenze dessen, was es leisten kann, hängt von deiner Modellwahl ab.

Kostenvergleich

OpenCodeClaude CodeCursor
Basiskosten0 €~18 €/Monat (Pro)~18 €/Monat (Pro)
API-KostenPay-per-Token beim AnbieterIm Abo enthalten (mit Limits)Credit-basiertes System
VielnutzungKann teuer werden mit Top-Modellen90-180 €/Monat für Max-Tarife~180 €/Monat (Ultra)
Budget-OptionKostenlos mit lokalen ModellenKeine2.000 kostenlose Completions
Team-Preis0 € + API-Kosten~27 €/Platz/Monat~36 €/Platz/Monat

Bei leichter bis mittlerer Nutzung (unter 50 Anfragen pro Tag) kostet OpenCode mit einem mittelklassigen API-Key typischerweise 15-30 € im Monat. Das ist konkurrenzfähig mit Claude Code Pro. Aber intensive agentic Nutzung, bei der der Agent über mehrere Dateien hinweg auf Testfehler iteriert, kann mit Top-Modellen 50-100 € im Monat an API-Kosten verursachen.

Die Budget-Option ist der Bereich, in dem OpenCode konkurrenzlos ist. Ollama mit einem fähigen lokalen Modell wie Llama 3.1 70B kostet nichts außer der Stromrechnung. Die Qualität ist niedriger als Claude Opus oder GPT-4o, aber für Autocomplete-artige Unterstützung und Routine-Codegenerierung reicht es.

Weiterlesen: KI Coding Agents im Vergleich: Cursor, Claude Code, GitHub Copilot & mehr

Workflow-Empfehlung

OpenCode wählen, wenn: du Modellflexibilität willst, in mehreren Sprachen und Frameworks arbeitest, Code lokal halten musst oder bereits Infrastruktur für selbst gehostete Modelle betreibst. OpenCode ist auch die natürliche Wahl, wenn du interne Tooling-Lösungen um einen KI-Coding-Agent herum baust.

Claude Code wählen, wenn: du an großen, komplexen Codebasen arbeitest, bei denen tiefes Reasoning über viele Dateien hinweg der Engpass ist. Das 1M-Kontextfenster und die Agent-Teams-Funktion für Multi-Agent-Workflows haben in OpenCode keine Entsprechung.

Cursor wählen, wenn: du die meiste Zeit in einem visuellen Editor Code bearbeitest und willst, dass die KI deinen nächsten Tastendruck vorhersagt. Cursors Inline-Completions und Codebase-bewusste Vorschläge sind für alltägliches Editieren schneller als jedes Terminal-basierte Tool.

OpenCode in 5 Minuten einrichten

Die Installation ist so einfach wie die Architektur vermuten lässt:

# macOS / Linux
curl -fsSL https://opencode.ai/install | bash

# Oder mit Go
go install github.com/anomalyco/opencode@latest

Anbieter konfigurieren:

# ~/.opencode/config.yaml
provider: anthropic
api_key: sk-ant-...
model: claude-sonnet-4-20250514

Oder ein lokales Modell nutzen:

provider: ollama
model: llama3.1:70b
endpoint: http://localhost:11434

Dann im Projektverzeichnis starten:

cd dein-projekt
opencode

Die TUI lädt, indiziert dein Projekt, und du programmierst. Kein Account, keine Kreditkarte, kein Onboarding-Wizard.

Für Teams in der DACH-Region ist der Null-Infrastruktur-Ansatz besonders attraktiv. Jeder Entwickler installiert die Binary, zeigt sie auf den freigegebenen LLM-Endpunkt (ob Azure OpenAI, AWS Bedrock oder ein selbst gehostetes Modell in Frankfurt) und arbeitet sofort. Keine Pro-Seat-Lizenzverhandlungen. Keine Vendor-Security-Reviews über das hinaus, was für den LLM-Anbieter bereits genehmigt wurde.

Weiterlesen: Der Open-Source Agentic AI Stack 2026: Was Teams wirklich in Produktion betreiben

Was OpenCode nicht gut kann

Kein Tool übersteht eine ehrliche Bewertung ohne Kritik.

Keine Multi-Agent-Orchestrierung. Claude Code kann Sub-Agenten starten, die gleichzeitig an verschiedenen Teilen einer Änderung arbeiten. OpenCode führt eine einzelne Agent-Session. Bei großen Refactorings über Dutzende Dateien bedeutet das langsamere Iteration.

Qualität hängt von der Modellwahl ab. Das ist die Kehrseite der Anbieterfreiheit. Ein Entwickler, der lokal Mistral 7B nutzt, hat eine fundamental andere Erfahrung als einer, der Claude Opus über die API nutzt. OpenCodes Dokumentation thematisiert diese Varianz zu selten.

Kleineres Ökosystem. Cursor hat einen Marketplace mit Extensions. Claude Code hat offizielle Integrationen mit GitHub, Linear und anderen Entwickler-Tools. OpenCodes Plugin-Ökosystem wächst (die awesome-opencode-Liste sammelt Community-Projekte), ist aber dünner.

Keine Cloud-Agent-Option. Cursor und Claude Code bieten Cloud-gehostete Agenten in Sandbox-Umgebungen. OpenCode läuft ausschließlich auf deinem Rechner. Für manche Teams ist das ein Feature. Für andere bedeutet es, dass sie langlaufende Agent-Tasks nicht auslagern können.

Für wen sich der Wechsel lohnt

Wenn du mit Cursor oder Claude Code bereits produktiv bist, ist ein Wechsel zu OpenCode aus Open-Source-Prinzip kein guter Trade. Produktivität zählt mehr als Ideologie.

Wechseln, wenn: du für mehrere KI-Coding-Abos zahlst und konsolidieren willst. OpenCode mit einem guten API-Key ersetzt 80% dessen, wofür du Cursor und Claude Code nutzt, bei niedrigeren Gesamtkosten.

Wechseln, wenn: dein Unternehmen verlangt, dass Code das Netzwerk nie verlässt. OpenCode plus selbst gehostetes Modell ist das einzige Coding-Agent-Setup, das dies ohne nennenswerte Kompromisse erreicht. Gerade für Unternehmen unter DSGVO-Aufsicht oder im regulierten Umfeld (Banken, Versicherungen, öffentlicher Sektor) ist das ein echtes Argument.

Wechseln, wenn: du als Teamlead KI-Coding-Tools evaluierst und dein Team nicht an einen Anbieter binden willst. OpenCode erlaubt dir, mit einem Anbieter zu starten und später zu wechseln, ohne jemanden umzuschulen.

Bleiben, wo du bist, wenn: du auf Cursors Inline-Completions angewiesen bist (OpenCode hat keine IDE-Integration) oder Claude Codes 1M-Kontextfenster für Whole-Codebase-Reasoning brauchst. Das sind echte Fähigkeiten, die OpenCodes Architektur nicht replizieren kann.

Häufig gestellte Fragen

Ist OpenCode wirklich kostenlos?

OpenCode selbst ist komplett kostenlos und Open Source. Du brauchst allerdings einen eigenen LLM-API-Key (OpenAI, Anthropic etc.), der eigene Kosten verursacht, oder du nutzt ein kostenloses lokales Modell über Ollama oder llama.cpp. Das Tool kostet nichts, der KI-Anbieter dahinter unter Umständen schon.

Wie schlägt sich OpenCode gegen Cursor im Alltag?

OpenCode ist ein Terminal-basierter Agent für agentic Tasks wie Multi-Datei-Edits, Debugging und Test-Iteration. Cursor ist eine vollwertige IDE mit Inline-Completions und visuellen Diffs. Für spontanes Code-Editieren ist Cursor schneller. Für komplexe, mehrstufige Änderungen über eine Codebasis hinweg ist OpenCode mit einem starken Modell gleichwertig, bei niedrigeren Kosten.

Kann ich OpenCode mit lokalen Modellen offline nutzen?

Ja. OpenCode unterstützt Ollama, llama.cpp und LM Studio für vollständig lokale, offline KI-Programmierung. Die Qualität hängt vom genutzten Modell ab. Für beste Ergebnisse mit lokalen Modellen solltest du mindestens ein 70B-Parameter-Modell wie Llama 3.1 70B verwenden, wenn deine Hardware das unterstützt.

Ist OpenCode DSGVO-konform einsetzbar?

OpenCode selbst verarbeitet keine Daten extern. Wenn du es mit einem selbst gehosteten Modell (z.B. über Ollama) kombinierst, verlässt kein Code dein Netzwerk. Nutzt du einen Cloud-Anbieter wie OpenAI oder Anthropic, gelten deren Datenschutzbestimmungen. Für maximale DSGVO-Konformität: lokales Modell im eigenen Rechenzentrum.

Welche LLM-Anbieter unterstützt OpenCode?

OpenCode unterstützt über 75 Anbieter, darunter OpenAI, Anthropic Claude, Google Gemini, AWS Bedrock, Groq, Azure OpenAI, OpenRouter und lokale Modelle über Ollama, llama.cpp und LM Studio. Der Anbieterwechsel erfolgt durch Änderung einer einzigen Zeile in der Konfigurationsdatei.