Foto von Carlos Muza auf Unsplash Source

Multi-Agent-Workflows auf der Databricks-Plattform sind zwischen Juni und Oktober 2025 um 327% gestiegen. KI-Agenten erstellen mittlerweile 80% aller neuen Datenbanken auf Neon (Databricks’ Serverless-Postgres-Akquisition) und 97% aller Datenbank-Branches. Unternehmen mit KI-Governance-Frameworks bringen 12x mehr Agenten-Projekte in Produktion als solche ohne. Das sind keine Prognosen eines Analystenhauses, sondern Telemetriedaten aus dem Databricks 2026 State of AI Agents Report, der über 20.000 Organisationen weltweit abdeckt, darunter mehr als 60% der Fortune 500.

Der Report erschien im Januar 2026 und liefert die bisher klarste plattformbasierte Momentaufnahme des Enterprise-KI-Agent-Marktes. Die Spannung zwischen 327% Wachstum und der Tatsache, dass nur 19% der Unternehmen Agenten skaliert im Einsatz haben, zeigt den aktuellen Zustand: Die Adoption explodiert, die Produktionsreife hält nicht Schritt.

Weiterlesen: KI-Agent-Adoption 2026: Die Zahlen hinter dem Hype

Der 327%-Sprung bei Multi-Agent-Systemen

Zwischen Juni und Oktober 2025 stieg die Nutzung von Multi-Agent-Workflows auf Databricks um 327%. Das ist kein Jahresvergleich. Das sind vier Monate. Der Treiber war die schnelle Einführung von Agent-Orchestrierungs-Features auf der Plattform, kombiniert mit dem Übergang von einzelnen Chatbot-Experimenten zu koordinierten Systemen, in denen mehrere spezialisierte Agenten über Geschäftsprozesse hinweg zusammenarbeiten.

Das Muster, das Databricks beobachtet: Unternehmen starten mit einem einzelnen RAG-Chatbot, meistens für interne Wissenssuche. Innerhalb weniger Wochen wird klar, dass der Chatbot nachgelagerte Aktionen auslösen, Daten aus mehreren Quellen ziehen und Aufgaben an spezialisierte Sub-Agenten übergeben muss. Aus einem Agenten werden zwei, dann vier, dann ein orchestrierter Workflow.

Das deckt sich mit den Ergebnissen der LangChain State of Agent Engineering Umfrage: Multi-Agent-Architekturen sind das am schnellsten wachsende Muster in Enterprise-KI, weil monolithische Agenten bei komplexen Aufgaben an Genauigkeitsgrenzen stoßen.

Was Multi-Agent konkret bedeutet

Databricks definiert Multi-Agent-Workflows als Systeme, in denen zwei oder mehr Agenten mit unterschiedlichen Rollen über einen Orchestrator zusammenarbeiten. Die häufigsten Muster aus dem Report:

  • Supervisor-Architekturen: Ein Koordinator-Agent verteilt Aufgaben an spezialisierte Worker (Datenabfrage, Analyse, Aktionsausführung)
  • Pipeline-Ketten: Agenten arbeiten sequenziell, jeder verarbeitet und reichert Daten an, bevor er sie weitergibt
  • Paralleles Fan-Out: Ein Orchestrator schickt dieselbe Anfrage gleichzeitig an mehrere Agenten und aggregiert die Ergebnisse

Das Wachstum konzentrierte sich auf drei Branchen: Finanzdienstleistungen, Gesundheitswesen und Fertigung. Finanzdienstleister führen die Adoption an, getrieben durch Automatisierung regulatorischer Berichterstattung, bei der mehrere Agenten Datenextraktion, Compliance-Prüfung und Berichtserstellung als koordinierte Schritte übernehmen.

Weiterlesen: Multi-Agent-Orchestrierung: So arbeiten KI-Agenten zusammen

Wenn Agenten die Datenbanken bauen

Die auffälligste Zahl im Report betrifft nicht Agenten, die Analysen durchführen oder Fragen beantworten. Es geht um Agenten, die Infrastruktur bauen. Auf Neon, Databricks’ Serverless-Postgres-Plattform, erstellen KI-Agenten 80% aller neuen Datenbanken. Bei Datenbank-Branches (Test- und Entwicklungsumgebungen) liegt die Zahl bei 97%.

Databricks nennt das “Natural Language Development” oder, weniger formal, Vibe Coding für Dateninfrastruktur. Entwickler beschreiben, was sie brauchen, und Agenten provisionieren die Datenbank, richten Schemas ein, konfigurieren Zugriffskontrollen und erstellen Branching-Umgebungen für Tests.

Warum das über Databricks hinaus relevant ist

Die Neon-Statistiken beziehen sich auf eine Plattform, aber die Implikationen reichen weiter. Databricks hat Lakebase lanciert, eine vollständig verwaltete Postgres-Datenbank auf Basis der Neon-Technologie, weil KI-Agent-Workloads andere Datenbank-Eigenschaften erfordern als menschengetriebene Entwicklung:

  • Sofortige Provisionierung: Agenten erstellen Datenbanken in Sekunden, nicht in den Minuten oder Stunden eines traditionellen Workflows
  • Branching für Iteration: Agenten erzeugen Hunderte von Test-Branches beim Erkunden von Lösungen und verwerfen sie wieder. Traditionelles Datenbankmanagement wäre damit überfordert
  • Scale-to-Zero-Ökonomie: Agent-erstellte Datenbanken liegen oft zwischen Aktivitätsspitzen brach. Serverless-Skalierung heißt: keine Kosten für ungenutzte Rechenleistung

Frühe Anwender wie easyJet, Hafnia und Warner Music Group berichten von 75% bis 95% kürzeren Bereitstellungszeiten. Hafnia hat die Zeit für produktionsreife Applikationen von zwei Monaten auf fünf Tage reduziert.

Governance: Der 12x-Produktionsmultiplikator

Die Zahl, die jede Enterprise-KI-Strategiediskussion verändern sollte: Organisationen mit KI-Governance-Frameworks bringen 12x mehr KI-Projekte in Produktion als solche ohne. Unternehmen mit strukturierten Evaluierungstools bringen 6x mehr Projekte in Produktion.

Das widerlegt die verbreitete Annahme, dass Governance bremst. Die Databricks-Daten zeigen das Gegenteil: Governance beschleunigt den Produktionsgang, weil Teams die Sicherheit bekommen, Projekte freizugeben. Ohne Governance-Leitplanken stecken Projekte in endlosen Pilotphasen fest, weil niemand einen unkontrollierten Agenten in Produktion unterschreiben will.

Für DACH-Unternehmen ist diese Erkenntnis besonders relevant. Wer ohnehin EU-AI-Act-Compliance und DSGVO-konforme Datenverarbeitung sicherstellen muss, kann diese regulatorischen Anforderungen direkt als Governance-Framework für KI-Agenten nutzen. Die Pflicht wird zum Beschleuniger.

Wie Governance in der Praxis aussieht

Der Report stellt fest, dass Governance typischerweise ein “nachlaufendes Verhalten” ist, etwas, das Organisationen einführen, nachdem sie genug Agenten gebaut haben, dass der fehlende Überblick “nervös macht.” Die erfolgreichsten Unternehmen laden Governance stattdessen vor:

  • Modell-Zugriffskontrollen: Welche Teams dürfen welche Modelle mit welchen Parametern deployen
  • Output-Monitoring: Automatisierte Prüfungen auf Halluzinationen, Bias und Policy-Verstöße
  • Audit-Trails: Protokollierung jeder Agenten-Entscheidung und Datenzugriffe für regulatorische Compliance
  • Evaluierungs-Pipelines: Strukturierte, wiederholbare Tests, die vor jedem Produktionsdeployment laufen

Der 6x-Multiplikator für Evaluierungstools zeigt eine spezifische Reifegradlücke: Die meisten Organisationen bauen Agenten, aber nie systematische Methoden, um sie zu testen. Wer systematisch testet, deployt mehr, weil Probleme vor den Nutzern gefunden werden, nicht danach.

Weiterlesen: State of Agent Engineering 2026: Was 1.300 Teams berichten
Weiterlesen: Salesforce Connectivity Report 2026: 12 KI-Agenten pro Unternehmen, 50% in Silos

Was Unternehmen tatsächlich bauen

Der Report katalogisiert die Top-15-KI-Agent-Use-Cases über 20.000+ Organisationen. 40% der wichtigsten Anwendungsfälle konzentrieren sich auf Customer Experience und Engagement. Das vollständige Ranking:

  1. Market Intelligence: Agenten, die Wettbewerber überwachen, Preisänderungen tracken und Marktberichte synthetisieren
  2. Predictive Maintenance: Agenten, die Sensordaten analysieren und Geräteausfälle vorhersagen
  3. Customer Advocacy: Agenten für Support-Eskalationen, Sentiment-Tracking und teamübergreifende Lösungskoordination
  4. Regulatorische Berichterstattung: Automatisierte Compliance-Dokumentenerstellung aus strukturierten und unstrukturierten Datenquellen
  5. Interne Wissenssuche: RAG-basierte Agenten, die Mitarbeiterfragen aus Unternehmensdokumentation beantworten

Die Überraschung: Market Intelligence steht an der Spitze, vor den häufiger diskutierten Kundenservice-Anwendungen. Databricks führt das auf das hohe Volumen unstrukturierter Daten zurück (Nachrichtenartikel, SEC-Filings, Wettbewerber-Ankündigungen), die Agenten schneller verarbeiten als jedes menschliche Team. Dazu kommt ein klarer ROI: Bessere Marktintelligenz fließt direkt in Preis-, Produkt- und Strategieentscheidungen.

Die Modellvielfalt nimmt zu

Eine der stilleren, aber bedeutsamen Erkenntnisse: 77% der Databricks-Kunden nutzen mittlerweile mindestens zwei verschiedene LLM-Familien, 59% nutzen drei oder mehr. Das spiegelt wachsende Reife bei der Modellauswahl wider: Unternehmen ordnen spezifische Modelle spezifischen Aufgaben zu, statt sich auf einen einzigen Anbieter festzulegen.

Der Multi-Modell-Trend verstärkt das Multi-Agent-Muster. Wenn verschiedene Agenten verschiedene Aufgaben übernehmen, wird die Nutzung des besten Modells pro Aufgabe (ein günstigeres, schnelleres Modell für Klassifikation; ein leistungsfähigeres für Synthese; ein spezialisiertes für Code-Generierung) zur natürlichen Optimierung.

Die 19%-Skalierungslücke

Trotz 327% Wachstum bei Multi-Agent-Workflows haben nur 19% der auditierten Organisationen Agenten in größerem Maßstab im Einsatz. Die restlichen 81% befinden sich in verschiedenen Stadien von Experimenten, Pilotprojekten oder begrenztem Einsatz. Diese Kluft zwischen Adoptionsgeschwindigkeit und Produktionsreife ist die zentrale Spannung des Reports.

Der Engpass ist nicht die Technologie. Er ist organisatorisch. Databricks identifiziert drei wiederkehrende Blocker:

  • Keine Evaluierungsinfrastruktur: Teams bauen Agenten, haben aber keine Möglichkeit, systematisch zu messen, ob sie korrekt funktionieren
  • Governance als Nachgedanke: Agenten ohne Zugriffskontrollen, Monitoring oder Audit-Trails bestehen kein Security-Review für Produktion
  • Einmal-Architekturen: Agenten als Einmal-Demos gebaut statt auf wiederverwendbaren Plattformen, was Skalierung unverhältnismäßig teuer macht

Der 12x-Governance-Multiplikator und der 6x-Evaluierungsmultiplikator zeigen direkt auf die Lösung: Die Organisationen, die Governance und Evaluierung als Voraussetzungen behandeln statt als Aufräumarbeiten, sind diejenigen, die Skalierung erreichen.

Häufig gestellte Fragen

Was sind die wichtigsten Ergebnisse des Databricks 2026 State of AI Agents Reports?

Der Databricks 2026 State of AI Agents Report, basierend auf 20.000+ Organisationen, zeigt: Multi-Agent-Workflows stiegen in vier Monaten um 327% (Juni-Oktober 2025), KI-Agenten erstellen 80% aller neuen Datenbanken auf Neon/Lakebase, Unternehmen mit KI-Governance bringen 12x mehr Projekte in Produktion, und 77% der Kunden nutzen mindestens zwei verschiedene LLM-Familien.

Wie stark sind Multi-Agent-Workflows laut Databricks gewachsen?

Die Nutzung von Multi-Agent-Workflows auf der Databricks-Plattform ist zwischen Juni und Oktober 2025 um 327% gestiegen. Dieser Vier-Monats-Sprung wurde durch neue Agent-Orchestrierungs-Features und den Übergang von einzelnen Chatbots zu koordinierten Multi-Agent-Systemen für komplexe Geschäftsprozesse getrieben.

Warum erstellen KI-Agenten 80% der Datenbanken bei Databricks?

Auf Neon (Databricks’ Serverless-Postgres-Akquisition) erstellen KI-Agenten 80% aller neuen Datenbanken und 97% aller Datenbank-Branches durch Natural Language Development. Entwickler beschreiben ihre Anforderungen in natürlicher Sprache, und Agenten übernehmen Provisionierung, Schema-Einrichtung, Zugriffskontrollen und Test-Environments.

Welchen Einfluss hat KI-Governance auf die Produktionsrate von Agenten?

Laut Databricks-Daten bringen Organisationen mit KI-Governance-Frameworks 12x mehr KI-Projekte in Produktion als solche ohne Governance. Unternehmen mit strukturierten Evaluierungstools schaffen 6x mehr. Governance beschleunigt Deployments, weil Teams den Compliance-Rahmen und das Vertrauen haben, Agenten von der Pilotphase in die Produktion zu überführen.

Was sind die häufigsten Anwendungsfälle für Enterprise-KI-Agenten 2026?

Die Top-Enterprise-KI-Agent-Use-Cases laut Databricks Report sind: Market Intelligence (Wettbewerber-Monitoring und Report-Synthese), Predictive Maintenance (Sensordaten-Analyse), Customer Advocacy (Eskalations-Handling und Sentiment-Tracking), regulatorische Berichterstattung (automatisierte Compliance-Dokumente) und interne Wissenssuche (RAG-basierte Mitarbeiter-Q&A).