Während Europa noch am EU AI Act feilt, hat Singapur bereits Fakten geschaffen. Am 22. Januar 2026 stellte Ministerin Josephine Teo beim Weltwirtschaftsforum in Davos das Model AI Governance Framework for Agentic AI vor. Es ist das erste Dokument weltweit, das sich gezielt an KI-Agenten richtet: Systeme, die eigenständig planen, schlussfolgern und handeln. Keine Chatbots, keine Empfehlungsalgorithmen, sondern Agenten, die Datenbanken ändern, E-Mails versenden, Zahlungen ausführen und mehrere Tools verketten, ohne bei jedem Schritt auf menschliche Freigabe zu warten.

Das Framework ist freiwillig. Wer es ignoriert, zahlt keine Strafe. Genau das macht es für europäische Unternehmen relevant: Singapur liefert das praktische Handbuch, das dem EU AI Act fehlt. Brüssel schreibt Gesetze, Singapur schreibt Anleitungen. Beide Ansätze haben Stärken und Schwächen.

Weiterlesen: EU AI Act 2026: Was Unternehmen bis August umsetzen müssen

Welche Lücke das Framework schließt

Die meisten bestehenden KI-Regulierungen wurden geschrieben, bevor agentische KI praxistauglich wurde. Der EU AI Act, 2024 finalisiert, klassifiziert KI-Systeme nach Risikostufen, verwendet aber nirgends das Wort “Agent.” Das NIST AI Risk Management Framework erwähnt autonome Systeme, bietet aber keine Anleitung für mehrstufige, werkzeugnutzende Agenten. Chinas KI-Vorschriften zielen auf Inhaltsgenerierung und algorithmische Empfehlungen, nicht auf autonomes Handeln.

Singapurs IMDA erkannte diese Lücke. Ein KI-Agent ist kein Modell, das Texte ausgibt. Er greift auf APIs zu, liest Datenbanken, schreibt in Produktionssysteme und trifft Entscheidungen, die sich über mehrere Schritte kaskadieren. Ein Kundenservice-Agent, der Erstattungen auslösen, CRM-Einträge aktualisieren und Tickets eskalieren kann, operiert in einer grundlegend anderen Risikokategorie als ein Chatbot.

Das Framework-PDF definiert agentische KI als Systeme, die “eigenständig planen, schlussfolgern und autonome Maßnahmen ergreifen, um Ziele im Auftrag von Nutzern zu erreichen.” Darauf aufbauend bietet es strukturierte Governance-Leitlinien in vier Dimensionen.

Die vier Dimensionen des Singapur-Frameworks

Dimension 1: Risiken vorab bewerten und begrenzen

Bevor ein KI-Agent in Betrieb geht, müssen Organisationen die spezifischen Risiken ihres Anwendungsfalls evaluieren. Das Framework nennt drei Faktoren: den Autonomiegrad des Agenten (handelt er eigenständig oder braucht er Freigabe?), seinen Zugriffsumfang (nur Lesezugriff oder Schreibrechte auf Produktionssysteme?) und die Reversibilität seiner Aktionen (lässt sich rückgängig machen, was er tut?).

Das ist granularer als der Ansatz des EU AI Act. Europa klassifiziert ganze Domänen als hochriskant (Beschäftigung, Kreditvergabe, Strafverfolgung). Singapur verlangt, die konkreten Fähigkeiten jedes einzelnen Agenten zu bewerten. Ein HR-Agent, der nur Stellenausschreibungen entwirft, hat ein anderes Risikoprofil als einer, der Bewerber im ATS ablehnen kann.

Die Begrenzung wird konkret: Das Framework empfiehlt Sandbox-Umgebungen beim Testen, Whitelisting von Tool-Zugriffen in Produktion und feingranulare Berechtigungssysteme. Wenn ein Agent nur Kundendaten lesen muss, soll er keinen Schreibzugriff haben. Wenn er nur interne E-Mails senden muss, werden externe Adressen blockiert.

Weiterlesen: KI-Agent-Berechtigungsgrenzen: Das Compliance-Muster für Unternehmen

Dimension 2: Menschen wirklich verantwortlich machen

“Wirklich” ist hier das entscheidende Wort. Das Framework fordert nicht einfach “Human in the Loop.” Es verlangt, dass Organisationen klare Verantwortlichkeiten über vier Stakeholder-Rollen hinweg definieren:

  • Entwickler bauen den Agenten und verantworten dessen Basissicherheit, Testabdeckung und Dokumentation.
  • Deployer wählen den Agenten für einen bestimmten Anwendungsfall und müssen bewerten, ob das Risikoprofil akzeptabel ist.
  • Operatoren überwachen den Agenten im Betrieb und sind verantwortlich für Eskalation, Eingriff und Wartung.
  • Endnutzer interagieren mit dem Agenten und müssen dessen Grenzen, Fähigkeiten und Eingriffsmöglichkeiten kennen.

Jede Rolle trägt spezifische Rechenschaftspflicht. Wenn ein Agent eine nicht autorisierte Erstattung auslöst, erwartet das Framework, dass sich die Verantwortung durch diese Kette zurückverfolgen lässt. Wer hat den Agenten gebaut? Wer hat seinen Einsatz für diesen Anwendungsfall genehmigt? Wer sollte ihn überwachen? Wurde der Endnutzer informiert, dass er mit einem Agenten interagiert?

Das Framework warnt zudem vor Automation Bias: der Tendenz, einem System zu sehr zu vertrauen, das in der Vergangenheit zuverlässig funktioniert hat. Das ist das unterschätzte Risiko agentischer KI. Wenn ein Agent 500 Kundenbeschwerden korrekt bearbeitet, hört der menschliche Operator auf, Fall 501 genau zu prüfen. Singapur fordert Schulungs- und Rotationsprotokolle, um die Aufmerksamkeit zu erhalten.

Weiterlesen: Human-in-the-Loop bei KI-Agenten: Wann Agenten handeln dürfen und wann nicht

Dimension 3: Technische Kontrollen über den gesamten Lebenszyklus

Diese Dimension unterteilt sich in drei Phasen:

Designphase: Agenten mit Least-Privilege-Zugriff bauen. Tool-Guardrails einsetzen (Agenten dürfen nur vorher freigegebene Funktionen aufrufen). Plan-Reflexion implementieren, bei der die geplanten Aktionen des Agenten vor der Ausführung geloggt werden, damit Monitoring-Systeme eingreifen können.

Pre-Deployment-Tests: Nicht nur Ausgabegenauigkeit prüfen, sondern auch Tool-Nutzungsmuster, Policy-Compliance und Workflow-Zuverlässigkeit. Das Framework nennt explizit Edge-Case-Tests: Was passiert, wenn der Agent mehrdeutige Anweisungen, widersprüchliche Policies oder unbekannte Daten vorfindet? Bei Multi-Agent-Systemen soll die Inter-Agent-Kommunikation auf kaskadierende Fehler getestet werden.

Post-Deployment: Gestufter Rollout (erst 5% des Traffics, nicht 100%). Echtzeit-Anomalieerkennung. Failsafe-Mechanismen, die einen Agenten innerhalb von Sekunden abschalten oder auf manuelle Bearbeitung zurückschalten können. Kontinuierliches Monitoring für Drift, bei dem sich das Verhalten eines Agenten über die Zeit ändert, weil sich die Daten verändern, auf denen er operiert.

Dimension 4: Endnutzer-Verantwortung ermöglichen

Endnutzer werden in zwei Gruppen unterteilt. Direkte Nutzer (Kunden, Bürger) brauchen klare Offenlegung, dass sie mit einem Agenten interagieren, Transparenz über Fähigkeiten und Grenzen und Eskalationswege bei Problemen.

Integratoren (Mitarbeiter, die Agenten intern nutzen) brauchen mehr. Das Framework fordert Schulungsprogramme, die “menschliche Aufsichtsfähigkeiten” erhalten, damit Mitarbeiter nicht vollständig von Agent-Outputs abhängig werden. Dazu kommt eine Dokumentation der Agentenfähigkeiten pro Anwendungsfall, damit ein Mitarbeiter in der Buchhaltung weiß, dass der Agent Berichte generieren kann, aber nicht für Investitionsentscheidungen herangezogen werden sollte.

Singapur vs. EU AI Act: Zwei Philosophien der Agenten-Governance

Der Kontrast ist deutlich genug, um daraus zu lernen.

Singapur MGF für Agentic AIEU AI Act
RechtskraftFreiwilligVerpflichtend, Bußgelder bis 35 Mio. EUR oder 7% des Umsatzes
Agentenspezifisch?Ja, von Grund auf für agentische KI entwickeltNein, allgemeine KI-Risikostufen für alle Systeme
RisikoklassifizierungFähigkeitsbasiert (Autonomiegrad, Tool-Zugriff, Aktionsumfang)Domänenbasiert (Beschäftigung, Kreditvergabe usw.)
Compliance-MechanismusSelbstbewertung, Fallstudien-EinreichungKonformitätsbewertungen, EU-Datenbankregistrierung
Stakeholder-RollenVier definierte Rollen (Entwickler, Deployer, Operator, Endnutzer)Anbieter und Betreiber mit einigen Nutzerpflichten
Iterationsgeschwindigkeit“Living Document,” offen für FeedbackGesetzgebungsverfahren, Änderungen dauern Jahre
Gültig abSofort (Januar 2026)Hochrisiko-Vorschriften ab 2. August 2026

Der EU AI Act ist eine Verordnung. Er sagt, was man nicht tun darf, und bestraft Verstöße. Singapurs Framework ist ein Leitfaden. Es sagt, was man tun sollte, und gibt eine Struktur vor.

Keiner der Ansätze ist objektiv besser. Die verpflichtenden Regeln der EU schaffen eine Untergrenze, die jedes Unternehmen einhalten muss. Singapurs freiwilliges Framework kann sich mit der Geschwindigkeit der Technologie weiterentwickeln und quartalsweise iterieren, statt auf Gesetzgebungszyklen zu warten, die Jahre dauern. Das Risiko des EU-Ansatzes ist regulatorischer Rückstand. Das Risiko von Singapurs Ansatz: Unternehmen ignorieren das Framework, wenn Compliance freiwillig ist.

Für Multi-Agent-Systeme ist Singapurs fähigkeitsbasierte Risikoklassifizierung nützlicher. Die Domäne eines Agenten (Kundenservice, HR, Finanzen) ist weniger relevant als das, was er tatsächlich tun kann. Ein Kundenservice-Agent mit reinem Lesezugriff auf Bestellhistorien ist risikoarm, unabhängig von der Domäne. Derselbe Agent mit Schreibzugriff auf Zahlungssysteme ist hochriskant. Singapurs Framework erfasst diese Unterscheidung. Der EU AI Act nicht.

Weiterlesen: OWASP Top 10 für agentische Anwendungen: Alle Risiken mit echten Angriffen erklärt

Was das für DACH-Unternehmen bedeutet

Warum sollte sich ein deutsches, österreichisches oder schweizerisches Unternehmen für ein singapurisches Framework interessieren? Drei Gründe.

Erstens füllt es eine Lücke, die der EU AI Act offen lässt. Der EU AI Act wird im August 2026 durchsetzbar, bietet aber keine spezifische Anleitung zur Governance von KI-Agenten. Singapurs Framework liefert ein praktisches Template für technische Kontrollen, Stakeholder-Rollen und Risikobewertungen, die der EU AI Act im Prinzip fordert, aber in der Praxis nicht konkretisiert. Das Compliance-Team kann IMDAs vier Dimensionen als Implementierungscheckliste nutzen, auch wenn die rechtlichen Pflichten aus Brüssel kommen.

Zweitens zeigt es, wohin globale Standards gehen. Südkoreas AI Basic Act (2026) und Taiwans AI Basic Act (2025) konvergieren zu ähnlichen freiwillig-plus-Test-Ansätzen. Wer im asiatisch-pazifischen Raum operiert, wird an Singapurs Framework nicht vorbeikommen. Heute damit beginnen heißt, später nicht improvisieren zu müssen.

Drittens ist das Stakeholder-Verantwortungsmodell sofort einsetzbar. Die meisten DACH-Unternehmen, die KI-Agenten einsetzen, haben nicht formal definiert, wer verantwortlich ist, wenn ein Agent einen Fehler macht. Singapurs Vier-Rollen-Modell (Entwickler, Deployer, Operator, Endnutzer) passt nahtlos auf europäische Organisationsstrukturen. Der Datenschutzbeauftragte bekommt ein Pendant: jemanden, der für Agent-Governance zuständig ist. Der Betriebsrat erhält ein Framework, das Aufsicht praktisch und nicht nur theoretisch definiert.

So nutzen Sie das Framework ab heute

Man muss nicht auf regulatorische Klarheit warten. Konkrete Schritte:

  1. Agenten inventarisieren. Jeden KI-Agenten in Produktion oder Entwicklung auflisten. Für jeden den Autonomiegrad, Tool-Zugriff und Aktionsumfang dokumentieren.
  2. Die vier Rollen zuordnen. Für jeden eingesetzten Agenten Entwickler, Deployer, Operator und verantwortlichen Endnutzer benennen. Wenn man sie nicht benennen kann, ist das die erste Governance-Lücke.
  3. Least-Privilege-Zugriff umsetzen. Kein Agent sollte breitere Berechtigungen haben, als seine spezifische Aufgabe erfordert. Tools und APIs whitelisten, alles andere blockieren.
  4. Gestuften Rollout aufbauen. Kein Agent geht direkt vom Test in 100% Produktion. Mit einer kontrollierten Teilmenge starten und überwachen.
  5. Operatoren schulen. Die Menschen, die Agenten beaufsichtigen, müssen verstehen, was der Agent kann, was er nicht tun sollte und wie man schnell eingreift, wenn etwas schiefgeht.

Das vollständige IMDA-Framework-PDF umfasst über 20 Seiten praktische Anleitung. Es ist kostenlos, und es ist das beste agentenspezifische Governance-Dokument, das bisher eine Regierung veröffentlicht hat.

Source

Häufig gestellte Fragen

Was ist Singapurs Model AI Governance Framework für Agentic AI?

Es ist das weltweit erste Governance-Framework speziell für KI-Agenten. Veröffentlicht von Singapurs IMDA am 22. Januar 2026, umfasst es vier Dimensionen: Risikobewertung und -begrenzung, menschliche Verantwortlichkeit, technische Kontrollen und Endnutzer-Verantwortung. Die Einhaltung ist freiwillig.

Wie unterscheidet sich Singapurs Agentic-AI-Framework vom EU AI Act?

Der EU AI Act ist verpflichtend mit Bußgeldern bis 35 Millionen Euro und klassifiziert Risiken nach Domäne (Beschäftigung, Kreditvergabe usw.). Singapurs Framework ist freiwillig, klassifiziert Risiken nach Agentenfähigkeiten (Autonomiegrad, Tool-Zugriff, Aktionsumfang) und ist als Living Document konzipiert, das schneller iteriert als Gesetzgebung.

Ist das Singapur Agentic-AI-Governance-Framework rechtlich bindend?

Nein. Das Framework ist freiwillig. Organisationen bleiben jedoch nach geltendem singapurischen Recht für die Handlungen ihrer Agenten verantwortlich. Das Framework liefert Best Practices und ist offen für Feedback. IMDA sucht aktiv nach Fallstudien von Organisationen, die es implementieren.

Welche vier Dimensionen hat Singapurs Agentic-AI-Framework?

Die vier Dimensionen sind: (1) Risiken vorab bewerten und begrenzen durch Evaluierung von Autonomiegrad, Tool-Zugriff und Aktionsreversibilität. (2) Menschen wirklich verantwortlich machen mit definierten Rollen für Entwickler, Deployer, Operator und Endnutzer. (3) Technische Kontrollen implementieren, einschließlich Least-Privilege-Zugriff, Pre-Deployment-Tests und Post-Deployment-Monitoring. (4) Endnutzer-Verantwortung durch Transparenz und Schulung ermöglichen.

Sollten europäische Unternehmen Singapurs Agentic-AI-Governance-Framework folgen?

Europäische Unternehmen müssen den EU AI Act einhalten, aber Singapurs Framework bietet praktische Implementierungsanleitungen, die der europäischen Verordnung fehlen. Seine Vier-Dimensionen-Struktur, fähigkeitsbasierte Risikobewertung und das Vier-Rollen-Verantwortungsmodell können als konkrete Implementierungs-Checkliste für die Agent-Governance-Anforderungen des EU AI Act dienen.