Foto von Jonas Horsch auf Pexels Source

Singapurs Ask Jamie beantwortet über 15 Millionen Bürgeranfragen auf 80 Behördenwebsites. Frankreich hat mit Albert eine souveräne KI für die Verwaltung aufgebaut, die Sachbearbeitern bei Recherche und Antwortformulierung hilft. Das US-Verteidigungsministerium stellte im Dezember 2025 über GenAI.mil 3 Millionen militärischen und zivilen Beschäftigten Zugang zu Gemini bereit. Das sind keine Pilotprojekte. Es sind Produktivsysteme, die reale Entscheidungen für reale Bürger in großem Maßstab verarbeiten.

Wenn Gartner prognostiziert, dass mindestens 80 % aller Regierungen bis 2028 KI-Agenten für routinemäßige Entscheidungen einsetzen werden, klingt das nach einer mutigen These. Ist es aber nicht. Die Frage ist nicht mehr, ob Behörden KI-Agenten einführen. Sondern ob sie es schaffen, ohne das Vertrauen zu gefährden, auf dem staatliches Handeln beruht.

Weiterlesen: Deutschland-Stack 2.0: MCP, A2A und Agentische KI für die Verwaltung

Wo KI-Agenten in der Verwaltung schon funktionieren

Die Vorstellung, dass KI in der Verwaltung noch im Experimentierstadium steckt, ist überholt. Eine ITIF-Studie von 2026 zeigt: Über 70 % der Beamten und Verwaltungsangestellten weltweit nutzen bereits KI in irgendeiner Form. 55 % der Führungskräfte im öffentlichen Sektor haben KI-Agenten in den Produktivbetrieb überführt. Noch beeindruckender: 42 % dieser Organisationen betreiben mehr als zehn verschiedene Agenten für komplexe Workflows.

Bürgernahe Dienste

Die klarsten Erfolge zeigen sich im direkten Bürgerkontakt. Singapurs Ansatz ist am weitesten: Ask Jamie löst rund die Hälfte aller Anfragen, die vorher einen menschlichen Sachbearbeiter brauchten. Barcelonas zentrale Bürgerplattform auf Salesforce-Basis gibt Verwaltungsmitarbeitern eine einheitliche Sicht auf alle Bürgerinteraktionen und ermöglicht personalisierten Service über Abteilungsgrenzen hinweg. Chennai setzt KI-gesteuerte adaptive Ampelschaltungen an 165 Kreuzungen ein und senkt damit die Wartezeiten messbar.

Diese Projekte funktionieren, weil sie klar definierte, wiederholbare Aufgaben automatisieren: häufige Fragen beantworten, Anfragen weiterleiten, Signale anhand von Sensordaten anpassen. Die Entscheidungen sind risikoarm, umkehrbar und nachprüfbar.

Interne Verwaltungsprozesse

Die schwierigeren Deployments passieren hinter den Kulissen. Eine große US-Bundesbehörde für Sozialdienste setzte Predictive Analytics ein, um die Berechtigungsprüfung zu priorisieren, und baute den Rückstau um über 40 % ab. Eine staatliche Sicherheitsbehörde nutzte ML zur Vorhersage des Ressourcenbedarfs in Spitzenzeiten und verbesserte die Einsatzgenauigkeit. Die GenAI.mil-Plattform des US-Militärs enthält einen Agent Designer, mit dem DoD-Mitarbeiter eigene spezialisierte Agenten für nicht klassifizierte Aufgaben bauen können.

Genau hier verstecken sich die eigentlichen Effizienzgewinne. Chatbots für Bürgeranfragen machen gute Pressemeldungen. Aber die Automatisierung der bürokratischen Maschinerie hinter Leistungsbescheiden, Genehmigungsverfahren und Ressourcenzuteilung ist es, die Wartezeiten von Wochen auf Tage verkürzt.

Weiterlesen: EU AI Act 2026: Was Unternehmen bis August umsetzen müssen

Warum 80 % bis 2028 gleichzeitig ambitioniert und unvermeidlich sind

Gartners Prognose basiert auf einer schlichten Beobachtung: Die Technologie, die Behörden brauchen, existiert bereits, und der Druck, sie einzusetzen, wächst. Multimodale KI, Konversationsschnittstellen und agentische Systeme haben das Spektrum dessen, was öffentliche Organisationen automatisieren, verstehen und antizipieren können, erheblich erweitert.

Aber die Hindernisse sind real. Gartner befragte 138 Verwaltungsorganisationen zwischen Juli und September 2025. Die zwei größten Barrieren: isolierte Strategien (41 % der Befragten) und veraltete Systeme (31 %). Das sind keine neuen Probleme. Und KI-Agenten lösen keines davon auf magische Weise. Ein Agent, der auf die Datenbank, die er braucht, nicht zugreifen kann, weil sie hinter einer 15 Jahre alten Middleware-Schicht liegt, ist nur ein teurer Chatbot.

Die 40-Prozent-Abbruchquote

Kontext ist wichtig. Gartners frühere Prognose vom Juni 2025 warnte, dass über 40 % aller agentischen KI-Projekte bis Ende 2027 abgebrochen werden, wegen unkontrollierbarer Kosten, unklarem Geschäftswert oder Governance-Fehlern. Verwaltungsprojekte sind für alle drei besonders anfällig. Die öffentliche Beschaffung ist langsam. ROI-Messung in der Verwaltung folgt nicht der Logik des privaten Sektors. Und die Governance-Anforderungen sind konstruktionsbedingt strenger.

Die 80 % schließen auch einfache Deployments ein. Der Abstand zwischen “Wir haben einen KI-Agenten im Einsatz” und “Unser KI-Agent trifft relevante Entscheidungen gut” ist gewaltig. Es ist zu erwarten, dass viele Regierungen einen übersetzten FAQ-Chatbot als “KI-Agenten-Deployment” zählen, während die schwierigen Themen, Leistungsberechtigung, Genehmigungsverfahren, Betrugserkennung, in Menschenhand bleiben.

Weiterlesen: Deutschlands Compliance-Kultur bremst die KI-Agent-Einführung

Die Compliance-Mauer: EU AI Act und Verwaltungs-KI

Verwaltungs-KI in der EU unterliegt der strengsten Stufe des EU AI Act. Die meisten Verwaltungsentscheidungen fallen direkt in die Hochrisiko-Kategorie. Anhang III des Gesetzes listet ausdrücklich KI-Systeme in Strafverfolgung, Migration und Grenzkontrolle, Rechtsprechung und Zugang zu wesentlichen öffentlichen Diensten als Hochrisiko auf. Jedes KI-System, das über Sozialleistungsansprüche entscheidet, Kreditwürdigkeit für staatliche Programme bewertet oder bei der strafrechtlichen Risikobewertung hilft, löst den vollen Pflichtenkatalog aus.

Was Hochrisiko in der Praxis bedeutet

Für staatliche Anwender ist “Hochrisiko” kein Label, sondern ein Compliance-Programm. Die Anforderungen nach Artikeln 9 bis 49 umfassen:

  • Risikomanagementsysteme: kontinuierliche Identifikation und Minderung von Risiken für Gesundheit, Sicherheit und Grundrechte
  • Datengovernance: Trainingsdaten müssen relevant, repräsentativ und so fehlerfrei wie möglich sein
  • Transparenz: Bürger müssen informiert werden, wenn ein KI-System eine Entscheidung über sie trifft oder beeinflusst
  • Menschliche Aufsicht: Ein qualifizierter Mensch muss das System übersteuern, eingreifen oder anhalten können
  • Grundrechte-Folgenabschätzung (FRIA): Öffentliche Stellen müssen diese Bewertung vor dem Einsatz jedes Hochrisiko-Systems abschließen

Diese Anforderungen gelten ab dem 2. August 2026. Das sind vier Monate. Die meisten EU-Regierungen haben ihre FRIA-Prozesse für bestehende Systeme nicht abgeschlossen, geschweige denn für eine Welle neuer KI-Agenten-Deployments geplant.

Gartners zweite Prognose: XAI und HITL bis 2029

Gartner koppelt die 80-Prozent-Deployment-Prognose an eine Governance-Prognose: Bis 2029 werden 70 % der Behörden erklärbare KI (XAI) und Human-in-the-Loop-Mechanismen für alle automatisierten Entscheidungen mit Bürgerbezug vorschreiben. Die Entscheidungslogik muss inspizierbar, erklärbar und anfechtbar sein. Menschen behalten die Autorität über Ausnahmen, Einsprüche und Hochrisikofälle.

Das ist kein Governance-Theater. Es ist die direkte Antwort auf das Risiko, dass automatisierte Entscheidungen, die in großem Maßstab von Systemen getroffen werden, die Bürger nicht verstehen, das öffentliche Vertrauen schneller zerstören als sie die Effizienz verbessern. In Gartners Umfrage nannten 39 % der Befragten verbesserten Service und Bürgerzufriedenheit als Hauptgrund für Investitionen in vertrauensbildende Maßnahmen. 50 % nannten verbesserte Bürgererfahrung als eine ihrer drei wichtigsten Prioritäten.

Das Deutschland-Problem: Infrastruktur trifft auf Kultur

Deutschland zeigt Versprechen und Lähmung zugleich. Auf der Infrastrukturseite schreibt der Deutschland-Stack 2.0 MCP, A2A und AG-UI als offizielle Interoperabilitätsprotokolle für agentische KI auf allen Verwaltungsebenen vor, mit Umsetzungszielen bis 2028. Das KI-MIG, am 10. Februar 2026 vom Bundeskabinett beschlossen, setzt den EU AI Act national um und bestimmt die Bundesnetzagentur als KI-Aufsichtsbehörde.

Auf der Anwendungsseite sind die Zahlen ernüchternd. Deutschland erreicht 44 von 100 Punkten im Public Sector AI Adoption Index und landet in der Kategorie “vorsichtiger Anwender”. Nur 30 % der deutschen Verwaltungsorganisationen haben in KI-Tools investiert, weniger als halb so viel wie die führenden Länder. 62 % der deutschen Verwaltungsangestellten fühlen sich im Umgang mit KI sicher, aber mehr als ein Drittel hat sie beruflich noch nie genutzt. Die Lücke ist nicht technologisch. Sie ist kulturell: Wenn Regeln unklar sind, entscheiden sich deutsche Organisationen lieber für Stillstand als für vorsichtiges Experimentieren.

Das Ergebnis ist ein Land mit einem erstklassigen Protokoll-Stack, einem umfassenden Regulierungsrahmen und einem öffentlichen Sektor, der KI kaum nutzt. Das zu ändern, erfordert etwas, das Regulierung allein nicht liefern kann: die organisatorische Erlaubnis zu handeln.

Weiterlesen: KI-Kompetenz unter dem EU AI Act: Was die neue Schulungspflicht bedeutet

Was Entscheidungsintelligenz für den Bürgerservice bedeutet

Gartner formuliert die Chance nicht als “KI-Agenten einsetzen”, sondern als “Entscheidungsintelligenz”: die Qualität von Entscheidungen selbst zu steuern, statt nur einzelne KI-Komponenten zu regulieren. Der Unterschied ist wesentlich.

Traditionelle Ansätze regulieren KI-Systeme isoliert. Hat dieses Modell eine akzeptable Genauigkeit? Sind die Trainingsdaten repräsentativ? Notwendige, aber unzureichende Fragen. Entscheidungsintelligenz fragt: Erzeugt der gesamte Entscheidungsprozess, Mensch und Maschine zusammen, faire, konsistente und zeitnahe Ergebnisse für die Bürger?

Dieser Wandel bedeutet, Entscheidungsabläufe in bürgerbezogenen Diensten neu zu gestalten. Statt reaktiver, prozessgetriebener Interaktionen, bei denen ein Bürger ein Formular einreicht, wochenlang wartet und einen Brief erhält, können Behörden proaktive Systeme aufbauen. Ein Agent, der erkennt, dass die Leistungsverlängerung eines Bürgers ansteht, den Antrag mit bekannten Daten vorausfüllt, fehlende Informationen markiert und den Fall nur dann an einen menschlichen Sachbearbeiter weiterleitet, wenn die Situation nicht dem Standard entspricht. Der Bürger bekommt schnelleren Service. Der Sachbearbeiter kümmert sich nur um die wirklich komplexen Fälle. Die Entscheidung ist dokumentiert, prüfbar und erklärbar.

Die Verwaltungen, die mit KI-Agenten bis 2028 Erfolg haben werden, sind nicht die mit den ausgefeilstesten Modellen. Es sind die, die ihre Entscheidungsarchitekturen so umbauen, dass Menschen und Agenten die richtigen Rollen, mit der richtigen Aufsicht, für die richtigen Entscheidungstypen übernehmen.

Häufig gestellte Fragen

Was prognostiziert Gartner über KI-Agenten in der Verwaltung?

Im März 2026 prognostizierte Gartner, dass mindestens 80 % aller Regierungen bis 2028 KI-Agenten für routinemäßige Verwaltungsentscheidungen einsetzen werden. Die Prognose enthält auch eine Governance-Komponente: Bis 2029 sollen 70 % der Behörden erklärbare KI (XAI) und Human-in-the-Loop-Mechanismen für alle automatisierten Entscheidungen mit Bürgerbezug vorschreiben. Die Vorhersagen basieren auf einer Befragung von 138 Verwaltungsorganisationen zwischen Juli und September 2025.

Welche Behörden setzen bereits KI-Agenten ein?

Mehrere Regierungen betreiben KI-Agenten heute im Produktivmaßstab. Singapurs Ask Jamie bearbeitet über 15 Millionen Anfragen auf 80 Behördenwebsites und löst etwa die Hälfte davon ohne menschliche Intervention. Frankreich hat Albert eingeführt, eine souveräne generative KI für die öffentliche Verwaltung. Das US-Verteidigungsministerium stellte im Dezember 2025 3 Millionen militärischen und zivilen Beschäftigten Zugang zu Gemini über GenAI.mil bereit. Barcelona nutzt eine Salesforce-basierte Plattform für einheitlichen Bürgerservice über Abteilungsgrenzen hinweg.

Wie betrifft der EU AI Act den Einsatz von KI-Agenten in Behörden?

Der EU AI Act stuft die meisten KI-gestützten Verwaltungsentscheidungen als Hochrisiko ein (Anhang III), einschließlich Strafverfolgung, Migration, Rechtsprechung und Zugang zu wesentlichen öffentlichen Diensten. Staatliche Anwender müssen Risikomanagementsysteme implementieren, Datenqualität sicherstellen, Transparenz gegenüber Bürgern gewährleisten, menschliche Aufsicht aufrechterhalten und Grundrechte-Folgenabschätzungen (FRIA) vor dem Einsatz jedes Hochrisiko-Systems abschließen. Compliance ist bis zum 2. August 2026 erforderlich.

Wo steht Deutschland bei der KI-Einführung in der Verwaltung?

Deutschland erreicht 44 von 100 Punkten im Public Sector AI Adoption Index und liegt damit in der Kategorie “vorsichtiger Anwender” neben Japan und Frankreich. Trotz Milliarden-Investitionen haben nur 30 % der Verwaltungsorganisationen in KI-Tools investiert. 62 % der Verwaltungsangestellten fühlen sich im Umgang mit KI sicher, aber mehr als ein Drittel hat sie am Arbeitsplatz nie genutzt, weil organisatorische Genehmigungen und klare Nutzungsrichtlinien fehlen. Die Lücke ist kulturell, nicht technisch.

Was ist Entscheidungsintelligenz im Kontext staatlicher KI?

Entscheidungsintelligenz bedeutet, die Qualität von Entscheidungen insgesamt zu steuern, statt einzelne KI-Komponenten isoliert zu betrachten. Statt zu fragen, ob ein Modell eine akzeptable Genauigkeit hat, fragt sie, ob der gesamte Entscheidungsprozess, der menschliches Urteil und KI-Automatisierung kombiniert, faire, konsistente und zeitnahe Ergebnisse für Bürger erzeugt. Für Behörden bedeutet das: Serviceabläufe so umzugestalten, dass KI-Agenten Routinefälle proaktiv bearbeiten, während Menschen sich auf komplexe, nicht standardmäßige Situationen konzentrieren.