Foto von Nemuel Sereti auf Pexels (freie Lizenz) Source

Goose ist ein kostenloser Open-Source-KI-Agent von Block (dem Unternehmen hinter Square, Cash App und Afterpay), der vollständig auf dem eigenen Rechner läuft. Seit dem Launch im Januar 2025 hat das Projekt 29.400+ GitHub Stars, 368 Contributors und 2.600+ Forks gesammelt. Anders als Cloud-basierte Coding-Agenten mit Monatsgebühren von 20 bis 200 Dollar funktioniert Goose mit jedem beliebigen LLM-Anbieter, einschließlich vollständig lokaler Modelle über Ollama. Der Code verlässt nie den eigenen Rechner. Goose verbindet sich über MCP mit 3.000+ Tools, unterstützt wiederverwendbare Workflow-Recipes und ist als CLI und Desktop-App verfügbar.

Diese Kombination aus null Kosten, lokaler Ausführung und offener Erweiterbarkeit hat Goose zur glaubwürdigsten kostenlosen Alternative zu kommerziellen Coding-Agenten gemacht. Hier kommt, was das Tool wirklich kann, wo es überzeugt und wo es hakt.

Weiterlesen: KI-Agent-Frameworks im Vergleich: LangGraph, CrewAI, AutoGen und mehr

Was Goose kann (und was nicht)

Goose ist kein Code-Autocomplete-Tool. Es ist ein autonomer Agent, der Projekte aufsetzen, Dateien erstellen und bearbeiten, Tests ausführen, Fehler debuggen, Shell-Befehle ausführen und Ergebnisse iterativ verbessern kann, ohne dass man ständig eingreifen muss. Man kann sich das wie einen erfahrenen Entwickler vorstellen, der eine Anweisung entgegennimmt, sie in Schritte zerlegt und jeden einzelnen abarbeitet.

Das “On-Machine”-Design ist der zentrale Unterschied. Block hat Goose entwickelt, weil das Fintech-Unternehmen bei der Verarbeitung von Milliarden-Transaktionen keinen Spielraum bei Datensicherheit hat. Statt Code über Cloud-APIs zu routen, arbeitet Goose direkt auf dem System. In Kombination mit einem lokalen LLM über Ollama oder Docker Model Runner bleibt die gesamte Pipeline auf der eigenen Hardware: Prompts, Zwischenergebnisse, generierter Code, Testergebnisse.

Was Goose nicht macht: die IDE ersetzen. Es läuft neben dem Editor und führt delegierte Aufgaben aus. Inline-Code-Vorschläge, Hover-Dokumentation oder Echtzeit-Autocomplete wie bei GitHub Copilot oder Cursor gibt es nicht. Goose übernimmt mehrstufige Workflows; der Editor bleibt für die Arbeit am einzelnen Zeichen zuständig.

Die Architektur in 30 Sekunden

Goose ist in Rust gebaut und modular aufgebaut: ein zentraler Agent-Loop, eine Provider-Abstraktionsschicht für LLMs und ein Extension-System auf Basis des Model Context Protocol (MCP). Wenn man Goose eine Aufgabe gibt, plant es eine Aktionssequenz, wählt die passenden Tools aus den verfügbaren Extensions, führt sie aus, wertet die Ergebnisse aus und wiederholt den Zyklus, bis die Aufgabe erledigt ist.

Die MCP-Schicht bedeutet: Goose braucht keine maßgeschneiderten Integrationen für jedes Tool. Jeder Dienst mit einem MCP-Server, und davon gibt es mittlerweile über 3.000, wird sofort für Goose verfügbar. GitHub, Jira, Slack, Google Drive, Datenbanken, Monitoring-Dashboards: Hat es einen MCP-Server, kann Goose damit arbeiten.

Goose vs. Claude Code: Kostenlos heißt nicht schlechter

Der häufigste Vergleich ist Goose gegen Claude Code, Anthropics Terminal-basierten Coding-Agenten. Claude Code erfordert ein Pro-Abo für 20 Dollar oder ein Max-Abo für 200 Dollar im Monat. Goose kostet nichts.

Aber der Vergleich ist differenzierter als nur der Preis. Laut einem detaillierten Vergleich von TechBuddies können beide Tools Ende-zu-Ende-Workflows orchestrieren: Projektgerüst erstellen, Dateien manipulieren, Tests ausführen, debuggen. Die Unterschiede zeigen sich in drei Bereichen:

Modellqualität: Claude Code läuft auf Claude Opus/Sonnet mit Anthropics internen Optimierungen für Code-Aufgaben. Goose nutzt das Modell, das man konfiguriert. Wer es auf Claude über die Anthropic-API richtet, bekommt vergleichbare Intelligenz, zahlt aber pro Token. Wer ein lokales Modell über Ollama nutzt, bekommt Qualität je nach Modellgröße. Llama 3 70B liefert starke Ergebnisse; kleinere Modelle verlieren bei komplexen Multi-File-Aufgaben die Kohärenz.

Planungs-Overhead: Gooses “Erst planen, dann ausführen”-Ansatz erstellt vor jeder Aktion einen detaillierten Plan. Bei großen Refactorings oder mehrstufigen Builds ist das wertvoll. Bei schnellen Einzel-Datei-Änderungen entsteht Latenz, die unnötig wirkt. Claude Code ist bei chirurgischen Eingriffen oft schneller.

Erweiterbarkeit: Hier gewinnt Goose klar. Claude Code hat ein fixes Tool-Set. Goose verbindet sich mit allem, was einen MCP-Server hat, und eigene Extensions sind in Minuten geschrieben. Wenn der Workflow Jira-Tickets, Slack-Updates und GitHub-PRs umfasst, orchestriert Goose alle drei in einer einzigen Session.

Weiterlesen: GPT Codex vs Claude Opus: Coding-Agenten im Vergleich

Extensions und MCP: 3.000+ Tools, ein Interface

Das Extension-System ist Gooses stärkstes technisches Argument. Extensions sind MCP-Server, die Goose Zugang zu externen Tools und Datenquellen geben. Die Goose-Dokumentation listet dutzende eingebaute Extensions: GitHub für Repository-Management, Jira für Issue-Tracking, Google Drive für Dokumentenzugriff, PostgreSQL für Datenbankabfragen und viele mehr.

Eine Extension hinzufügen geht mit einem Befehl:

goose configure
# "Add Extension" auswählen
# Aus der eingebauten Liste wählen oder auf einen eigenen MCP-Server verweisen

Die Desktop-App hat einen Extensions Manager, der die Suche noch einfacher macht: verfügbare Extensions durchstöbern, ein- und ausschalten, Zugangsdaten konfigurieren.

Eigene Extensions schreiben

Wenn das Team ein internes Tool nutzt, das noch keinen MCP-Server hat, ist der Bau unkompliziert. MCP-Server sind leichtgewichtige HTTP-Dienste nach einem standardisierten Protokoll. Block stellt Templates in Python, TypeScript und Rust bereit. Ein minimaler Python-MCP-Server, der ein einzelnes Tool exponiert, braucht ungefähr 40 Zeilen Code.

Das ist wichtig, weil das Extension-Ökosystem rasant wächst. Das MCP-Server-Verzeichnis hat Anfang 2026 die 3.000er-Marke überschritten. Jeder neue Server wird sofort für Goose verfügbar, ohne dass an Goose selbst etwas geändert werden muss.

Recipes: Wiederverwendbare Workflows als YAML

Extensions geben Goose Werkzeuge. Recipes sagen ihm, wie er sie für bestimmte Workflows einsetzen soll. Ein Recipe ist eine YAML-Datei, die ein Ziel, benötigte Extensions, strukturierte Eingaben und Ausführungsschritte in eine portable, teilbare Einheit packt.

Ein vereinfachtes Beispiel für ein Recipe, das einen wöchentlichen Statusbericht generiert:

name: weekly-status
description: Wöchentlichen Statusbericht aus Projekttools generieren
extensions:
  - github
  - linear
  - notion
instructions: |
  1. Alle gemergten PRs der letzten 7 Tage aus GitHub holen
  2. Abgeschlossene Tickets aus Linear ziehen
  3. Wichtigste Erfolge und Blocker zusammenfassen
  4. Bericht auf eine neue Notion-Seite "KW {{week}}" schreiben

Jedes Teammitglied führt dasselbe Recipe aus und bekommt ein konsistentes Ergebnis. Kein manuelles Zusammensuchen von Updates aus drei verschiedenen Tools mehr. Die Vorbereitung für das wöchentliche Statusmeeting schrumpft von 45 auf unter 5 Minuten pro Person.

Recipes unterstützen auch Sub-Recipes für komplexe mehrstufige Workflows: Ein Deployment-Recipe kann ein Test-Sub-Recipe aufrufen, dann ein Staging-Sub-Recipe, dann ein Release-Sub-Recipe. Das ist näher an CI/CD-Pipeline-Design als an klassischem KI-Agent-Prompting.

Erste Schritte: Von der Installation zur ersten Aufgabe in 5 Minuten

Installation

CLI (macOS, Linux, Windows via Git Bash):

curl -fsSL https://github.com/block/goose/releases/download/stable/download_cli.sh | bash

macOS via Homebrew:

brew install block/tap/goose

Desktop-App: Neueste Version von den GitHub Releases für macOS, Windows oder Linux herunterladen.

Konfiguration

Beim ersten Start führt Goose durch die Provider-Einrichtung:

goose configure
# LLM-Anbieter wählen (Anthropic, OpenAI, Google, Ollama usw.)
# API-Key eingeben (oder auf lokale Ollama-Instanz verweisen)
# Standard-Modell festlegen

Goose unterstützt 25+ Anbieter in drei Kategorien: API-basiert (Anthropic, OpenAI, Google Gemini, Mistral, xAI Grok), Cloud-Plattformen (AWS Bedrock, GCP Vertex, Azure OpenAI, Databricks) und lokal (Ollama, Docker Model Runner, Ramalama).

Erste Aufgabe starten

goose session
# Eingeben: "Erstelle ein FastAPI-Projekt mit /health-Endpoint, SQLAlchemy-Modellen und pytest-Tests"

Goose plant die Schritte, erstellt Dateien, installiert Abhängigkeiten, schreibt Tests und führt sie aus. Man schaut in Echtzeit zu und kann jederzeit unterbrechen oder umlenken.

Für komplett lokalen Betrieb ohne Cloud-Abhängigkeit:

# Ollama installieren und Modell herunterladen
ollama pull llama3:70b

# Goose für Ollama konfigurieren
goose configure
# "Ollama" als Provider wählen, auf localhost:11434 verweisen

Jetzt bleibt alles auf dem eigenen Rechner. Keine API-Keys, kein Usage-Tracking, keine Rate Limits.

Datenschutz und Compliance: Warum das Local-First-Modell zählt

Block hat Goose nicht aus Spielerei lokal-first gebaut. Als Fintech-Unternehmen, das Milliarden-Transaktionen verarbeitet, braucht Block Tools, bei denen sensible Daten keine Netzwerkgrenzen überschreiten. Goose erbt diese Philosophie.

Für europäische Unternehmen unter der DSGVO löst diese Architektur zwei häufige Compliance-Probleme direkt:

Datenminimierung: Wenn Goose mit einem lokalen LLM läuft, werden keine Prompts, Code-Snippets oder Agent-Outputs an externe Server übertragen. Es gibt keine Daten zu minimieren, weil sie den Rechner nie verlassen.

Grenzüberschreitender Transfer: Ein komplett lokales Goose-Setup eliminiert Fragen darüber, wo Daten verarbeitet werden. Die Verarbeitung findet auf dem Rechner im eigenen Büro statt, in der eigenen Jurisdiktion, auf der eigenen Hardware. Das ist besonders relevant seit dem Wegfall des EU-US Data Privacy Framework-Vorgängers und den verschärften Anforderungen an Drittlandtransfers.

Das bedeutet nicht, dass Goose automatisch DSGVO-konform ist. Extensions, die sich mit externen Diensten verbinden, müssen separat bewertet werden, und Cloud-LLM-Anbieter haben eigene Datenverarbeitungsrichtlinien. Aber die Möglichkeit, einen komplett abgeschotteten KI-Coding-Agenten zu betreiben, ist auf diesem Fähigkeitsniveau einzigartig.

Weiterlesen: Agentic AI Foundation: So standardisiert die Linux Foundation die Agenten-Ära

Wo Goose an Grenzen stößt

Goose beeindruckt, aber so zu tun, als hätte es keine Schwächen, wäre unehrlich.

Qualitätsdecke bei Modellen: Wer Goose mit einem lokalen 7B-Parameter-Modell betreibt, merkt bei Multi-File-Refactoring schnell den Qualitätsabfall. Der Agent ist nur so klug wie das LLM dahinter. Top-Cloud-Modelle (Claude Opus, GPT-4o) über APIs liefern bessere Ergebnisse, kosten aber Geld und verringern den Preisvorteil gegenüber Claude Code.

Planungslatenz: Gooses “Erst planen”-Ansatz erzeugt Overhead bei einfachen Aufgaben. Eine Variable projektübergreifend umbenennen dauert länger als nötig, weil Goose auf einem vollständigen Ausführungsplan besteht.

Lücken in der Dokumentation: Die Docs für eigene Extensions und fortgeschrittene Recipes könnten ausführlicher sein. Community-Beispiele in den GitHub Discussions sind oft die beste Anlaufstelle.

Keine IDE-Integration: Goose läuft im eigenen Terminal oder Desktop-Fenster. Wer KI-Unterstützung direkt in VS Code oder JetBrains will, braucht ein anderes Tool.

Hardware-Anforderungen für lokale LLMs: Ein 70B-Parameter-Modell über Ollama braucht 48 GB+ RAM. Kleinere Modelle laufen auf bescheidenerer Hardware, liefern aber schwächere Ergebnisse. Das Label “kostenlos” setzt voraus, dass man bereits leistungsfähige Hardware besitzt.

Häufig gestellte Fragen

Ist Goose wirklich kostenlos?

Ja. Goose ist MIT-lizenzierte Open-Source-Software ohne Abogebühren. Wer Cloud-LLM-Anbieter wie Anthropic oder OpenAI nutzt, zahlt für die API-Nutzung. Für komplett kostenlosen Betrieb kombiniert man Goose mit einem lokalen Modell über Ollama.

Kann Goose Claude Code oder GitHub Copilot ersetzen?

Goose ersetzt die Funktionalität von Claude Code (autonome Aufgabenausführung, mehrstufige Workflows), aber nicht die von GitHub Copilot (Inline-Code-Vervollständigung, Hover-Docs). Goose übernimmt Aufgaben auf Projektebene; Copilot hilft beim einzelnen Tastendruck. Viele Entwickler nutzen beides.

Welche LLMs funktionieren mit Goose?

Goose unterstützt 25+ Anbieter: Anthropic Claude, OpenAI GPT, Google Gemini, Mistral, xAI Grok und lokale Modelle über Ollama, Docker Model Runner und Ramalama. Man kann Modelle pro Session wechseln oder Standards festlegen.

Schickt Goose meinen Code in die Cloud?

Nur wenn man einen Cloud-LLM-Anbieter konfiguriert. In Kombination mit einem lokalen Modell über Ollama bleibt die gesamte Verarbeitung auf dem eigenen Rechner. Keine Prompts, kein Code und keine Outputs verlassen das System.

Was ist die Agentic AI Foundation und wie hängt Goose damit zusammen?

Die Agentic AI Foundation (AAIF) ist ein Projekt der Linux Foundation, das 2026 gegründet wurde, um die Interoperabilität von KI-Agenten zu standardisieren. Goose wurde zusammen mit Anthropics MCP und OpenAIs AGENTS.md als Gründungsprojekt beigesteuert. Das bedeutet, dass Gooses Entwicklung jetzt unter herstellerneutraler Governance steht.