Foto von Leon auf Unsplash Source

LobeHub ist ein Open-Source-KI-Agent-Workspace mit 74.000 GitHub-Sternen, über 5.600 Community-Agents und nativem MCP-Support. Ursprünglich als hübsche ChatGPT-Oberfläche gestartet, positioniert sich Version 2.0 als “Agent Operating System”: ein Ort, an dem Teams KI-Agents zusammenstellen, über MCP mit ihren Tools verbinden und in Gruppen mit einem Supervisor-Agent orchestrieren.

Klingt nach dem Standard-Pitch jedes zweiten Open-Source-KI-Projekts in 2026. Was LobeHub davon abhebt: Die Umsetzung hält, was das Marketing verspricht. Die UI ist polierter als die meisten kommerziellen Produkte. Der Agent-Marketplace hat echte Tiefe. Und die Architektur skaliert vom einzelnen Docker-Container bis zum Enterprise-Deployment mit SSO, RBAC und PostgreSQL-Persistenz.

Weiterlesen: Langflow vs Dify: Open-Source-KI-Agent-Plattformen im Vergleich

Mehr als ein ChatGPT-Klon: Was LobeHub wirklich bietet

Das Erste, was beim Öffnen von LobeHub auffällt, ist eine Chat-Oberfläche. Das ist gleichzeitig die größte Stärke und das größte Missverständnis. Ja, man kann LobeHub als ChatGPT-UI nutzen, die Anfragen an beliebige Modellanbieter weiterleitet. Aber wer es nur als “Chat-Wrapper” betrachtet, verpasst den Kern des Projekts.

LobeHub basiert auf Next.js 16 mit einem React-19-Frontend, PostgreSQL + PGVector für Speicherung und tRPC für die API-Schicht. Der Tech-Stack ist relevant, weil LobeHub damit eine vollwertige Webanwendung ist: Konversationen werden persistiert, Benutzersitzungen über professionelle Authentifizierung verwaltet (OAuth, WebAuthn, TOTP-2FA, OIDC/SSO via Better-Auth), und Embeddings für die eingebaute RAG-Wissensbasis gespeichert.

Drei Funktionen heben LobeHub von einfacheren Chat-UIs wie Open WebUI oder LibreChat ab:

Agent-Marketplace mit über 5.600 Agents. Das sind keine simplen System-Prompt-Templates. Jeder Agent im LobeHub-Marketplace bringt eine definierte Persona, Tool-Konfigurationen, Modellpräferenzen und Verhaltensanweisungen mit. Die Kategorien reichen von Programmierung über akademische Forschung bis Marketing und Übersetzung. Jeder kann Agents per GitHub-PR einreichen, und eine automatisierte i18n-Pipeline übersetzt sie in mehrere Sprachen.

Native MCP-Integration. Der MCP-Marketplace erlaubt die Installation von MCP-Servern per Mausklick: Datenbanken, APIs, Web-Scraper, Dateisysteme und Spezialtools. LobeHub gibt Zugang zu über 10.000 Skills durch MCP-kompatible Integrationen an. Das zählt, weil MCP sich als Standardprotokoll für die Verbindung von Agents mit externen Tools etabliert hat, und LobeHub es früh und konsequent implementierte.

Artifacts-Rendering. Ähnlich wie Anthropics Claude-Artifacts rendert LobeHub HTML, SVG und Code-Outputs live in der Konversation. Die Umsetzung ist sauber und reaktionsschnell.

50+ Modellanbieter: Die modell-agnostischste Open-Source-Option

LobeHub unterstützt über 50 KI-Modellanbieter durch eine einheitliche Abstraktionsschicht. Die Liste umfasst OpenAI (GPT-4o, o1, o3), Anthropic Claude (3.5 bis 4.6), Google Gemini, AWS Bedrock, DeepSeek, Groq, Together AI, Perplexity, Mistral, Azure OpenAI und viele weitere.

Für lokale Modelle bietet LobeHub eine nahtlose Ollama-Integration. Man verweist auf die Ollama-Instanz, und alle lokalen Modelle erscheinen im Modell-Selector. Für höheren Durchsatz wird auch vLLM als Backend unterstützt.

Die Modellerkennung funktioniert automatisch: Vision-Modelle bekommen Bild-Upload-Support, Reasoning-Modelle (o1, o3) eine Chain-of-Thought-Visualisierung, Function-Calling-Modelle Tool-Zugriff. Keine manuelle Konfiguration pro Modell nötig.

Für Teams im DACH-Raum, die keinen Lock-in bei einem einzelnen Anbieter wollen, ist das besonders relevant. Claude für komplexe Analysen, GPT-4o für schnelle Aufgaben und ein lokales Llama-Modell für DSGVO-sensible Datenverarbeitung: alles im selben Workspace, mit Modellwechsel pro Konversation oder pro Nachricht.

Weiterlesen: Der Open-Source Agentic AI Stack 2026

Multi-Agent-Gruppen: Supervisor-Orchestrierung ohne Code

Das v2.0-Feature, das LobeHubs Ambitionen über “Chat-UI” hinaus signalisiert, sind Agent Groups. Man stellt mehrere spezialisierte Agents in einer Gruppe zusammen, weist einen Supervisor-Agent zu, und dieser orchestriert die Arbeit: Er delegiert Teilaufgaben, sammelt Ergebnisse und steuert den Gesprächsfluss.

Das ist Multi-Agent-Orchestrierung für Nicht-Entwickler. In Frameworks wie LangGraph oder CrewAI schreibt man Code für Agent-Rollen, Routing-Logik und State-Management. In LobeHub wählt man Agents aus dem Marketplace, fügt sie einer Gruppe hinzu, und der Supervisor übernimmt die Koordination.

Ein praktisches Beispiel: Eine Gruppe mit einem Research-Agent (konfiguriert mit Web-Search-MCP-Tools), einem Analyst-Agent (mit Datenverarbeitungs-Skills) und einem Writer-Agent (mit eigenen Markenrichtlinien). Der Auftrag “Recherchiere Wettbewerberpreise für unseren Q2-Bericht” wird vom Supervisor aufgeteilt: Web-Recherche, strukturierte Analyse, fertiger Berichtstext.

Die Orchestrierung ist nicht so flexibel wie Code-basierte Frameworks. Keine individuellen Routing-Graphen oder komplexen Error-Recovery-Patterns. Aber für 80 % der Multi-Agent-Anwendungsfälle entfällt damit das Schreiben von Orchestrierungs-Code vollständig.

Das Memory-System

LobeHub v2.0 enthält ein persönliches Memory-System mit sechs Dimensionen: Aktivitäten, Kontexte, Erfahrungen, Identitäten, Präferenzen und Personas. Das System lernt aus Interaktionen und baut ein Profil auf, das beeinflusst, wie Agents antworten.

Das ist nicht dasselbe wie Konversations-Historie. Es ist persistentes Memory, das über Sessions hinweg bestehen bleibt und agent-übergreifend gilt. Wenn man einem Agent mitteilt, dass man knappe Antworten bevorzugt, kann das Memory-System diese Präferenz auch anderen Agents im Workspace zugänglich machen.

Self-Hosting: Docker, Desktop oder Vercel

LobeHub bietet mehrere Deployment-Pfade. Die selbst gehostete Community Edition ist vollständig kostenlos unter der Apache-2.0-Lizenz.

Docker Compose ist der Produktions-Pfad. Der volle Stack umfasst PostgreSQL (mit PGVector für RAG), MinIO oder RustFS für Dateispeicherung, Redis für Caching und optional Casdoor für SSO. Die Docker-Compose-Konfiguration unterstützt drei Modi: lokale Entwicklung, LAN-Zugriff über Port-basiertes Routing und Custom-Domain-Deployment mit HTTPS.

Desktop-App (Electron) läuft als native Anwendung mit PGlite WASM, also einer In-Browser-Datenbank. Kein Server nötig. Ideal für Einzelnutzer, die einen lokalen KI-Workspace ohne Infrastruktur-Overhead wollen.

Vercel-Deployment funktioniert für leichte Setups mit Vercels gemanagtem PostgreSQL und Blob-Storage. Ein-Klick-Deploy aus dem Repository.

Für Unternehmen im DACH-Raum ist der Self-Hosting-Ansatz besonders relevant: Gespräche, Wissensdatenbanken und Agent-Konfigurationen bleiben auf der eigenen Infrastruktur. Kein Datentransfer an Dritte, es sei denn, man routet bewusst zu Cloud-Modell-APIs. Mit Ollama als lokalem Modell-Backend entfällt auch dieser Punkt. Gerade im Kontext des EU AI Act und der DSGVO-Anforderungen ein entscheidender Vorteil gegenüber SaaS-Lösungen wie ChatGPT Team oder Claude for Business.

Einordnung: Kein Dify, kein Langflow, kein Open WebUI

Die naheliegenden Vergleichspunkte sind Dify (125K Sterne) und Langflow (143K Sterne), aber LobeHub besetzt eine andere Kategorie.

Dify ist eine LLMOps-Plattform: Workflow-Canvas, RAG-Pipeline-Builder, Modellverwaltung, API-Deployment. Man baut KI-Backends mit Dify. Langflow ist ein Python-nativer visueller Builder, bei dem jede Komponente bearbeitbarer Quellcode ist. Man baut Agent-Pipelines mit Langflow.

LobeHub ist die User-facing Schicht. Hier interagieren Menschen mit Agents, nicht dort, wo Agent-Backends gebaut werden. Viele Teams nutzen Dify oder Langflow für die KI-Logik und LobeHub als die polierte Oberfläche, die das Team tatsächlich täglich benutzt.

Verglichen mit Open WebUI (einem weiteren beliebten Self-Hosted-Chat-UI) ist LobeHub schwerer, aber leistungsfähiger. Open WebUI ist ein sauberes, simples Ollama-Frontend. LobeHub ist ein vollständiger Workspace mit Agents, MCP-Tools, Wissensdatenbanken, Memory und Teamkollaboration.

FeatureLobeHubDifyLangflowOpen WebUI
HauptrolleAgent-Workspace/UILLMOps-BackendPipeline-BuilderChat-UI
GitHub-Sterne74K125K143K80K+
Agent-Marketplace5.600+TemplatesKomponentenCommunity
MCP-SupportNativer MarketplaceAPI-ToolsKomponentenBegrenzt
Multi-Agent-GruppenJa (Supervisor)Workflow-NodesGraph-basiertNein
Self-HostedDocker/Desktop/VercelDockerDocker/pipDocker
LizenzApache 2.0Custom Open SourceMITMIT

Schnellstart: In fünf Minuten loslegen

Der schnellste Weg, LobeHub auszuprobieren, ist der Docker-Einzeiler:

docker run -d -p 3210:3210 lobehub/lobe-chat

Damit bekommt man eine Single-Container-Instanz mit clientseitigem Speicher (ohne PostgreSQL). Ausreichend, um die UI zu erkunden, Agent-Konfigurationen zu testen und API-Keys zu verbinden.

Für ein persistentes Setup mit Datenbank-Speicherung, Wissensbasis-Support und Multi-User-Auth nimmt man den Docker-Compose-Stack:

git clone https://github.com/lobehub/lobe-chat.git
cd lobe-chat/docker-compose
cp .env.example .env
# .env mit eigenen Modell-API-Keys konfigurieren
docker compose up -d

Die .env-Datei konfiguriert Modellanbieter-API-Keys, Auth-Einstellungen und Speicheroptionen. Der Compose-Stack verwaltet PostgreSQL, Redis und MinIO automatisch.

Nach dem Start lohnt sich als Erstes ein Blick in den Agent-Marketplace. Relevante Agents installieren, MCP-Tools für häufig genutzte Integrationen verbinden und eine Agent Group ausprobieren, um die Orchestrierung in Aktion zu sehen.

Weiterlesen: AI Agent Skills Marketplace: Das neue Plugin-Ökosystem

Häufig gestellte Fragen

Was ist LobeHub und wie unterscheidet es sich von ChatGPT?

LobeHub ist ein Open-Source-KI-Agent-Workspace mit 74.000 GitHub-Sternen. Anders als ChatGPT unterstützt es über 50 Modellanbieter (OpenAI, Anthropic, Google, lokale Ollama-Modelle), hat einen Marketplace mit 5.600+ Community-Agents, native MCP-Tool-Integration und Multi-Agent-Gruppenorchestrierung. Man kann es selbst hosten für volle Datenhoheit.

Ist LobeHub kostenlos zum Self-Hosting?

Ja. Die Community Edition von LobeHub ist kostenlos unter der Apache-2.0-Lizenz. Deployment ist möglich über Docker, Docker Compose, die Electron-Desktop-App oder Vercel. Man bringt eigene API-Keys für Modellanbieter mit oder nutzt kostenlose lokale Modelle über Ollama.

Wie unterscheidet sich LobeHub von Dify und Langflow?

LobeHub ist ein nutzerorientierter Agent-Workspace, in dem Menschen mit KI-Agents interagieren. Dify ist ein LLMOps-Backend zum Bauen von KI-Workflows. Langflow ist ein Python-nativer visueller Pipeline-Builder. Viele Teams nutzen Dify oder Langflow für das KI-Backend und LobeHub als polierte Oberfläche für den täglichen Gebrauch.

Unterstützt LobeHub MCP (Model Context Protocol)?

Ja. LobeHub hat nativen MCP-Support mit einem Ein-Klick-MCP-Marketplace. Man kann MCP-Server für Datenbanken, APIs, Web-Scraper, Dateisysteme und mehr installieren. Die Plattform gibt Zugang zu über 10.000 Skills durch MCP-kompatible Integrationen.

Kann LobeHub mit lokalen KI-Modellen laufen?

Ja. LobeHub hat eine nahtlose Ollama-Integration für lokales Modell-Serving. Man verweist auf die Ollama-Instanz und alle lokalen Modelle erscheinen im Modell-Selector. Für höheren Durchsatz wird auch vLLM als Backend unterstützt. Das bedeutet: Keine Daten verlassen das eigene Netzwerk.