LobeHub ist ein Open-Source-KI-Agent-Workspace mit 74.000 GitHub-Sternen, über 5.600 Community-Agents und nativem MCP-Support. Ursprünglich als hübsche ChatGPT-Oberfläche gestartet, positioniert sich Version 2.0 als “Agent Operating System”: ein Ort, an dem Teams KI-Agents zusammenstellen, über MCP mit ihren Tools verbinden und in Gruppen mit einem Supervisor-Agent orchestrieren.
Klingt nach dem Standard-Pitch jedes zweiten Open-Source-KI-Projekts in 2026. Was LobeHub davon abhebt: Die Umsetzung hält, was das Marketing verspricht. Die UI ist polierter als die meisten kommerziellen Produkte. Der Agent-Marketplace hat echte Tiefe. Und die Architektur skaliert vom einzelnen Docker-Container bis zum Enterprise-Deployment mit SSO, RBAC und PostgreSQL-Persistenz.
Mehr als ein ChatGPT-Klon: Was LobeHub wirklich bietet
Das Erste, was beim Öffnen von LobeHub auffällt, ist eine Chat-Oberfläche. Das ist gleichzeitig die größte Stärke und das größte Missverständnis. Ja, man kann LobeHub als ChatGPT-UI nutzen, die Anfragen an beliebige Modellanbieter weiterleitet. Aber wer es nur als “Chat-Wrapper” betrachtet, verpasst den Kern des Projekts.
LobeHub basiert auf Next.js 16 mit einem React-19-Frontend, PostgreSQL + PGVector für Speicherung und tRPC für die API-Schicht. Der Tech-Stack ist relevant, weil LobeHub damit eine vollwertige Webanwendung ist: Konversationen werden persistiert, Benutzersitzungen über professionelle Authentifizierung verwaltet (OAuth, WebAuthn, TOTP-2FA, OIDC/SSO via Better-Auth), und Embeddings für die eingebaute RAG-Wissensbasis gespeichert.
Drei Funktionen heben LobeHub von einfacheren Chat-UIs wie Open WebUI oder LibreChat ab:
Agent-Marketplace mit über 5.600 Agents. Das sind keine simplen System-Prompt-Templates. Jeder Agent im LobeHub-Marketplace bringt eine definierte Persona, Tool-Konfigurationen, Modellpräferenzen und Verhaltensanweisungen mit. Die Kategorien reichen von Programmierung über akademische Forschung bis Marketing und Übersetzung. Jeder kann Agents per GitHub-PR einreichen, und eine automatisierte i18n-Pipeline übersetzt sie in mehrere Sprachen.
Native MCP-Integration. Der MCP-Marketplace erlaubt die Installation von MCP-Servern per Mausklick: Datenbanken, APIs, Web-Scraper, Dateisysteme und Spezialtools. LobeHub gibt Zugang zu über 10.000 Skills durch MCP-kompatible Integrationen an. Das zählt, weil MCP sich als Standardprotokoll für die Verbindung von Agents mit externen Tools etabliert hat, und LobeHub es früh und konsequent implementierte.
Artifacts-Rendering. Ähnlich wie Anthropics Claude-Artifacts rendert LobeHub HTML, SVG und Code-Outputs live in der Konversation. Die Umsetzung ist sauber und reaktionsschnell.
50+ Modellanbieter: Die modell-agnostischste Open-Source-Option
LobeHub unterstützt über 50 KI-Modellanbieter durch eine einheitliche Abstraktionsschicht. Die Liste umfasst OpenAI (GPT-4o, o1, o3), Anthropic Claude (3.5 bis 4.6), Google Gemini, AWS Bedrock, DeepSeek, Groq, Together AI, Perplexity, Mistral, Azure OpenAI und viele weitere.
Für lokale Modelle bietet LobeHub eine nahtlose Ollama-Integration. Man verweist auf die Ollama-Instanz, und alle lokalen Modelle erscheinen im Modell-Selector. Für höheren Durchsatz wird auch vLLM als Backend unterstützt.
Die Modellerkennung funktioniert automatisch: Vision-Modelle bekommen Bild-Upload-Support, Reasoning-Modelle (o1, o3) eine Chain-of-Thought-Visualisierung, Function-Calling-Modelle Tool-Zugriff. Keine manuelle Konfiguration pro Modell nötig.
Für Teams im DACH-Raum, die keinen Lock-in bei einem einzelnen Anbieter wollen, ist das besonders relevant. Claude für komplexe Analysen, GPT-4o für schnelle Aufgaben und ein lokales Llama-Modell für DSGVO-sensible Datenverarbeitung: alles im selben Workspace, mit Modellwechsel pro Konversation oder pro Nachricht.
Multi-Agent-Gruppen: Supervisor-Orchestrierung ohne Code
Das v2.0-Feature, das LobeHubs Ambitionen über “Chat-UI” hinaus signalisiert, sind Agent Groups. Man stellt mehrere spezialisierte Agents in einer Gruppe zusammen, weist einen Supervisor-Agent zu, und dieser orchestriert die Arbeit: Er delegiert Teilaufgaben, sammelt Ergebnisse und steuert den Gesprächsfluss.
Das ist Multi-Agent-Orchestrierung für Nicht-Entwickler. In Frameworks wie LangGraph oder CrewAI schreibt man Code für Agent-Rollen, Routing-Logik und State-Management. In LobeHub wählt man Agents aus dem Marketplace, fügt sie einer Gruppe hinzu, und der Supervisor übernimmt die Koordination.
Ein praktisches Beispiel: Eine Gruppe mit einem Research-Agent (konfiguriert mit Web-Search-MCP-Tools), einem Analyst-Agent (mit Datenverarbeitungs-Skills) und einem Writer-Agent (mit eigenen Markenrichtlinien). Der Auftrag “Recherchiere Wettbewerberpreise für unseren Q2-Bericht” wird vom Supervisor aufgeteilt: Web-Recherche, strukturierte Analyse, fertiger Berichtstext.
Die Orchestrierung ist nicht so flexibel wie Code-basierte Frameworks. Keine individuellen Routing-Graphen oder komplexen Error-Recovery-Patterns. Aber für 80 % der Multi-Agent-Anwendungsfälle entfällt damit das Schreiben von Orchestrierungs-Code vollständig.
Das Memory-System
LobeHub v2.0 enthält ein persönliches Memory-System mit sechs Dimensionen: Aktivitäten, Kontexte, Erfahrungen, Identitäten, Präferenzen und Personas. Das System lernt aus Interaktionen und baut ein Profil auf, das beeinflusst, wie Agents antworten.
Das ist nicht dasselbe wie Konversations-Historie. Es ist persistentes Memory, das über Sessions hinweg bestehen bleibt und agent-übergreifend gilt. Wenn man einem Agent mitteilt, dass man knappe Antworten bevorzugt, kann das Memory-System diese Präferenz auch anderen Agents im Workspace zugänglich machen.
Self-Hosting: Docker, Desktop oder Vercel
LobeHub bietet mehrere Deployment-Pfade. Die selbst gehostete Community Edition ist vollständig kostenlos unter der Apache-2.0-Lizenz.
Docker Compose ist der Produktions-Pfad. Der volle Stack umfasst PostgreSQL (mit PGVector für RAG), MinIO oder RustFS für Dateispeicherung, Redis für Caching und optional Casdoor für SSO. Die Docker-Compose-Konfiguration unterstützt drei Modi: lokale Entwicklung, LAN-Zugriff über Port-basiertes Routing und Custom-Domain-Deployment mit HTTPS.
Desktop-App (Electron) läuft als native Anwendung mit PGlite WASM, also einer In-Browser-Datenbank. Kein Server nötig. Ideal für Einzelnutzer, die einen lokalen KI-Workspace ohne Infrastruktur-Overhead wollen.
Vercel-Deployment funktioniert für leichte Setups mit Vercels gemanagtem PostgreSQL und Blob-Storage. Ein-Klick-Deploy aus dem Repository.
Für Unternehmen im DACH-Raum ist der Self-Hosting-Ansatz besonders relevant: Gespräche, Wissensdatenbanken und Agent-Konfigurationen bleiben auf der eigenen Infrastruktur. Kein Datentransfer an Dritte, es sei denn, man routet bewusst zu Cloud-Modell-APIs. Mit Ollama als lokalem Modell-Backend entfällt auch dieser Punkt. Gerade im Kontext des EU AI Act und der DSGVO-Anforderungen ein entscheidender Vorteil gegenüber SaaS-Lösungen wie ChatGPT Team oder Claude for Business.
Einordnung: Kein Dify, kein Langflow, kein Open WebUI
Die naheliegenden Vergleichspunkte sind Dify (125K Sterne) und Langflow (143K Sterne), aber LobeHub besetzt eine andere Kategorie.
Dify ist eine LLMOps-Plattform: Workflow-Canvas, RAG-Pipeline-Builder, Modellverwaltung, API-Deployment. Man baut KI-Backends mit Dify. Langflow ist ein Python-nativer visueller Builder, bei dem jede Komponente bearbeitbarer Quellcode ist. Man baut Agent-Pipelines mit Langflow.
LobeHub ist die User-facing Schicht. Hier interagieren Menschen mit Agents, nicht dort, wo Agent-Backends gebaut werden. Viele Teams nutzen Dify oder Langflow für die KI-Logik und LobeHub als die polierte Oberfläche, die das Team tatsächlich täglich benutzt.
Verglichen mit Open WebUI (einem weiteren beliebten Self-Hosted-Chat-UI) ist LobeHub schwerer, aber leistungsfähiger. Open WebUI ist ein sauberes, simples Ollama-Frontend. LobeHub ist ein vollständiger Workspace mit Agents, MCP-Tools, Wissensdatenbanken, Memory und Teamkollaboration.
| Feature | LobeHub | Dify | Langflow | Open WebUI |
|---|---|---|---|---|
| Hauptrolle | Agent-Workspace/UI | LLMOps-Backend | Pipeline-Builder | Chat-UI |
| GitHub-Sterne | 74K | 125K | 143K | 80K+ |
| Agent-Marketplace | 5.600+ | Templates | Komponenten | Community |
| MCP-Support | Nativer Marketplace | API-Tools | Komponenten | Begrenzt |
| Multi-Agent-Gruppen | Ja (Supervisor) | Workflow-Nodes | Graph-basiert | Nein |
| Self-Hosted | Docker/Desktop/Vercel | Docker | Docker/pip | Docker |
| Lizenz | Apache 2.0 | Custom Open Source | MIT | MIT |
Schnellstart: In fünf Minuten loslegen
Der schnellste Weg, LobeHub auszuprobieren, ist der Docker-Einzeiler:
docker run -d -p 3210:3210 lobehub/lobe-chat
Damit bekommt man eine Single-Container-Instanz mit clientseitigem Speicher (ohne PostgreSQL). Ausreichend, um die UI zu erkunden, Agent-Konfigurationen zu testen und API-Keys zu verbinden.
Für ein persistentes Setup mit Datenbank-Speicherung, Wissensbasis-Support und Multi-User-Auth nimmt man den Docker-Compose-Stack:
git clone https://github.com/lobehub/lobe-chat.git
cd lobe-chat/docker-compose
cp .env.example .env
# .env mit eigenen Modell-API-Keys konfigurieren
docker compose up -d
Die .env-Datei konfiguriert Modellanbieter-API-Keys, Auth-Einstellungen und Speicheroptionen. Der Compose-Stack verwaltet PostgreSQL, Redis und MinIO automatisch.
Nach dem Start lohnt sich als Erstes ein Blick in den Agent-Marketplace. Relevante Agents installieren, MCP-Tools für häufig genutzte Integrationen verbinden und eine Agent Group ausprobieren, um die Orchestrierung in Aktion zu sehen.
Häufig gestellte Fragen
Was ist LobeHub und wie unterscheidet es sich von ChatGPT?
LobeHub ist ein Open-Source-KI-Agent-Workspace mit 74.000 GitHub-Sternen. Anders als ChatGPT unterstützt es über 50 Modellanbieter (OpenAI, Anthropic, Google, lokale Ollama-Modelle), hat einen Marketplace mit 5.600+ Community-Agents, native MCP-Tool-Integration und Multi-Agent-Gruppenorchestrierung. Man kann es selbst hosten für volle Datenhoheit.
Ist LobeHub kostenlos zum Self-Hosting?
Ja. Die Community Edition von LobeHub ist kostenlos unter der Apache-2.0-Lizenz. Deployment ist möglich über Docker, Docker Compose, die Electron-Desktop-App oder Vercel. Man bringt eigene API-Keys für Modellanbieter mit oder nutzt kostenlose lokale Modelle über Ollama.
Wie unterscheidet sich LobeHub von Dify und Langflow?
LobeHub ist ein nutzerorientierter Agent-Workspace, in dem Menschen mit KI-Agents interagieren. Dify ist ein LLMOps-Backend zum Bauen von KI-Workflows. Langflow ist ein Python-nativer visueller Pipeline-Builder. Viele Teams nutzen Dify oder Langflow für das KI-Backend und LobeHub als polierte Oberfläche für den täglichen Gebrauch.
Unterstützt LobeHub MCP (Model Context Protocol)?
Ja. LobeHub hat nativen MCP-Support mit einem Ein-Klick-MCP-Marketplace. Man kann MCP-Server für Datenbanken, APIs, Web-Scraper, Dateisysteme und mehr installieren. Die Plattform gibt Zugang zu über 10.000 Skills durch MCP-kompatible Integrationen.
Kann LobeHub mit lokalen KI-Modellen laufen?
Ja. LobeHub hat eine nahtlose Ollama-Integration für lokales Modell-Serving. Man verweist auf die Ollama-Instanz und alle lokalen Modelle erscheinen im Modell-Selector. Für höheren Durchsatz wird auch vLLM als Backend unterstützt. Das bedeutet: Keine Daten verlassen das eigene Netzwerk.
