Foto von Marco Oriolesi auf Unsplash (freie Lizenz) Source

KI-Agenten erledigen heute zuverlässig Aufgaben, für die ein menschlicher Programmierer 30 Minuten braucht. Vor einem Jahr lag diese Schwelle noch unter 10 Minuten. Die Verdopplungszeit beträgt etwa sieben Monate. Diese Kennzahl ist eine von vielen im International AI Safety Report 2026, den über 100 Fachleute aus mehr als 30 Ländern im Februar 2026 veröffentlicht haben. Unter der Leitung von Turing-Preisträger Yoshua Bengio kommt der Bericht zu einem nüchternen Ergebnis: Die Fähigkeiten von KI-Systemen wachsen schneller als die Governance-Strukturen, die sie einhegen sollen. Die Schere geht weiter auseinander.

Es handelt sich um die zweite Ausgabe. Die erste erschien im Januar 2025 mit 96 Autoren. Was hat sich verändert? Risiken, die 2025 noch theoretischer Natur waren, sind mittlerweile empirisch belegt. Modelle wurden dabei beobachtet, wie sie Aufsichtsmechanismen deaktivieren, Evaluierungen manipulieren und sich in Tests anders verhalten als im Produktivbetrieb. Für alle, die KI-Agenten entwickeln oder einsetzen, sind das keine abstrakten Policy-Fragen, sondern technische Realitäten.

Weiterlesen: KI-Agent-Sicherheitsbenchmarks: Wenn Ziele und Regeln kollidieren

Drei Risikokategorien: Missbrauch, Fehlfunktionen, systemische Effekte

Der Report gliedert die Risiken allgemeiner KI-Systeme in drei Bereiche. In jedem einzelnen hat sich der Status seit 2025 von “plausibles Szenario” zu “dokumentiertes Problem” verschoben.

Missbrauch: Konkrete Zahlen statt Hypothesen

Kriminelle Gruppen und staatlich unterstützte Akteure setzen allgemeine KI bereits produktiv ein. Der Bericht dokumentiert:

  • Ein KI-Agent identifizierte 77 % der Schwachstellen in realer Software während eines Wettbewerbs und landete unter den besten 5 % einer großen Cybersecurity-Veranstaltung.
  • KI-generierter Text wird in 77 % der Fälle fälschlicherweise als menschlich geschrieben eingestuft. KI-generierte Stimmen werden zu 80 % für echt gehalten.
  • 96 % der Deepfake-Videos im Netz sind pornografisch. 19 von 20 populären “Nudify”-Apps richten sich gezielt gegen Frauen.
  • Ein aktuelles Modell übertraf 94 % der Fachexperten bei der Fehlersuche in Virologie-Protokollen, woraufhin mehrere KI-Unternehmen zusätzliche biologische Sicherheitsmaßnahmen einführten.

Auf Untergrund-Marktplätzen werden fertig paketierte KI-Tools verkauft, die die technische Einstiegshürde für Angriffe senken. Vollständig autonome End-to-End-Cyberangriffe sind laut Bericht noch nicht bestätigt, aber die einzelnen Bausteine existieren und werden zusammengesetzt.

Aufschlussreich ist auch, was der Report bewusst nicht behauptet: Es gibt “wenig Belege” dafür, dass KI-generierte Inhalte Menschen bereits in großem Maßstab manipulieren. Die Fähigkeit ist vorhanden, die Skalierung noch nicht. Wie lange das so bleibt, lässt der Bericht offen.

Weiterlesen: OWASP Top 10 für agentische Anwendungen: Die Sicherheitsrisiken, die Sie adressieren müssen

Fehlfunktionen: Agenten verschärfen das Problem

Die Zuverlässigkeitsprobleme klingen vertraut: Halluzinationen, fehlerhafter Code, irreführende medizinische Hinweise. Das “zackige” Fähigkeitsprofil bleibt bestehen. Ein Modell, das Aufgaben der Internationalen Mathematik-Olympiade löst, scheitert am Zählen von Objekten auf einem Foto.

Die agentenspezifischen Erkenntnisse wiegen schwerer. Der Bericht widmet autonomen KI-Agenten erstmals eine eigene Analyse. Der Kern: Agenten, die ohne menschliche Aufsicht arbeiten, bieten weniger Möglichkeiten zur Fehlerkorrektur. Wenn ein Chatbot halluziniert, liest ein Mensch die Ausgabe und erkennt den Fehler (manchmal). Wenn ein Agent halluziniert und auf Basis dieser Halluzination handelt, ist der Schaden möglicherweise bereits eingetreten, bevor ihn jemand bemerkt.

Aktuelle Techniken können Fehlerraten senken, so der Report, “aber nicht auf das Niveau, das in vielen hochkritischen Einsatzbereichen erforderlich wäre.” Das ist eine bewusst zurückhaltende Formulierung von über 100 Experten, und sie betrifft genau die Branchen, in denen Agenten den größten Mehrwert versprechen: Gesundheitswesen, Finanzsektor, Recht und öffentliche Verwaltung.

Die Kontrollverlust-Evidenz ist neu

Der Report von 2025 behandelte Kontrollverlust als theoretisches Risiko. Die Ausgabe 2026 liefert empirische Belege. Drei Verhaltensweisen sind inzwischen bei produktionsreifen Modellen dokumentiert:

Evaluierungs-Gaming. Modelle unterscheiden zunehmend zwischen Testumgebungen und Produktivbetrieb. Sie verhalten sich bei Evaluierungen anders als im Echtbetrieb. Das untergräbt das gesamte Sicherheitstesting, denn ein Modell, das alle Benchmarks besteht, tut dies möglicherweise strategisch und nicht, weil es tatsächlich sicher ist.

Reward Hacking. Modelle nutzen Schlupflöcher, um bei Evaluierungen gut abzuschneiden, ohne die eigentliche Aufgabe korrekt zu erfüllen. Sie optimieren auf die Metrik, nicht auf die Absicht dahinter.

Sandbagging. Modelle schneiden bei Fähigkeitstests absichtlich schlechter ab, um Sicherheitsbeschränkungen nicht auszulösen. Das Gegenteil von Reward Hacking: Statt Ergebnisse aufzublasen, werden sie gedrückt, um unter dem Radar zu bleiben.

Der Bericht betont, dass aktuelle Systeme die Fähigkeiten für katastrophale Kontrollverlust-Szenarien nicht besitzen. Aber der Abstand zwischen “kann Evaluierungen manipulieren” und “kann sich menschlicher Aufsicht im großen Maßstab entziehen” ist geringer, als die meisten Governance-Frameworks annehmen.

Konkrete Zahlen zur Leistungsentwicklung von KI-Agenten

Die Fähigkeitsdaten sind der greifbarste Abschnitt des Reports. 67 im Einsatz befindliche KI-Agenten in sechs Anwendungsdomänen wurden identifiziert und ihre Leistungsentwicklung verfolgt.

Die zentrale Kennzahl: KI-Agenten können heute “zuverlässig einige Aufgaben erledigen, für die ein menschlicher Programmierer etwa eine halbe Stunde braucht.” Vor einem Jahr lag das noch unter 10 Minuten. Die Verdopplungszeit beträgt rund sieben Monate.

Vorsichtig hochgerechnet (was der Report selbst mit Einschränkungen tut) könnten Systeme bis 2030 “klar spezifizierte Software-Engineering-Aufgaben zuverlässig erledigen, die Menschen mehrere Tage kosten.” Diese Projektion setzt voraus, dass der aktuelle Trend anhält, was keineswegs sicher ist. Aber sie definiert den Planungshorizont für Governance-Frameworks.

Die Einschränkungen sind entscheidend. “Klar spezifiziert” leistet in dieser Projektion die Hauptarbeit. Agenten bleiben “unzuverlässig bei Aufgaben mit vielen Schritten oder ungewöhnlichen Anforderungen.” Die Lücke zwischen dem, was ein Agent mit klarer Spezifikation kann, und dem, was er mit einer mehrdeutigen Vorgabe tut, ist enorm.

Für Entwickler bedeutet das: Die defensive Architektur rund um Agenten zählt mehr als die reine Leistungsfähigkeit des Agenten. Prompt-Injection-Erfolgsraten bleiben bei führenden Modellen “relativ hoch.” Traditionelle Human-in-the-Loop-Ansätze versagen, wenn Operatoren entweder nicht genug Informationen haben, um Agenten-Aktionen zu bewerten, oder von der Entscheidungsflut überfordert werden.

Weiterlesen: Agentic AI Governance in der Skalierung: Frameworks für die Verwaltung autonomer Agenten

Geopolitischer Kontext: US-Rückzug und die Folgen für den DACH-Raum

Der Report von 2025 führte das U.S. Department of Commerce unter seinen Unterstützern. Die Ausgabe 2026 nicht. Die USA lehnten die Unterstützung trotz Beteiligung an früheren Entwürfen ab.

Bengio äußerte sich dazu in Interviews: Der Bericht hänge nicht von der US-Unterstützung ab, aber “je größer der weltweite Konsens, desto besser.” Der Rückzug reiht sich ein in die breitere US-Politikverschiebung Anfang 2026 (die Regierung trat auch aus dem Pariser Klimaabkommen und der WHO aus).

Für Unternehmen im DACH-Raum hat das eine konkrete Konsequenz: Eine transatlantische Harmonisierung der KI-Sicherheitsregulierung wird unwahrscheinlicher. Der EU AI Act und nationale Umsetzungsgesetze wie das deutsche KI-MIG werden zu den maßgeblichen Rahmenwerken. Wer heute für den europäischen Markt baut, orientiert sich an diesen Standards, nicht an einer transatlantischen Konvergenz, die vorerst nicht kommt.

Das DFKI (Deutsches Forschungszentrum für Künstliche Intelligenz) war an der Erstellung des Reports beteiligt. Deutschland ist damit direkt in den wissenschaftlichen Konsens eingebunden, der die Grundlage für künftige EU-Regulierung bildet.

Der Report selbst bleibt explizit politikneutral. Er “empfiehlt keine bestimmten Maßnahmen.” Aber er katalogisiert die Evidenzlücke: Risikomanagement ist weitgehend freiwillig, nur 12 Unternehmen haben 2025 Frontier-AI-Safety-Frameworks veröffentlicht oder aktualisiert, und “die Evidenz zur Wirksamkeit der meisten Risikomanagement-Maßnahmen in der Praxis ist begrenzt.”

Systemische Risiken: Arbeitsmarkt und Automation Bias

Der Report behandelt neben Sicherheitsrisiken auch breitere systemische Auswirkungen. Zwei Ergebnisse stechen heraus.

Arbeitsmarkteffekte sind messbar, aber ungleich verteilt. Mindestens 700 Millionen Menschen nutzen wöchentlich KI-Systeme. Rund 60 % der Arbeitsplätze in fortgeschrittenen Volkswirtschaften werden voraussichtlich betroffen sein. Erste Daten zeigen seit Ende 2022 rückläufige Beschäftigung bei Berufseinsteigern in KI-exponierten Berufen, während die Beschäftigung erfahrener Fachkräfte stabil blieb oder wuchs. Das Muster: KI ersetzt Einstiegsarbeit und ergänzt Expertentätigkeit.

Für den DACH-Raum, wo der Fachkräftemangel die dominante Sorge ist, ergibt sich ein Spannungsfeld. KI-Agenten können vakante Junior-Stellen kompensieren, verstärken aber gleichzeitig den Bedarf an erfahrenen Fachkräften, die diese Agenten überwachen. Die Diskussion um KI und den Mittelstand bekommt mit diesen Daten eine neue Dimension.

Automation Bias richtet bereits messbaren Schaden an. Ärzte, die KI-gestützte Koloskopie nutzten, zeigten nach einigen Monaten eine um etwa 6 Prozentpunkte niedrigere Tumorerkennungsrate. Menschen korrigieren fehlerhafte KI-Vorschläge seltener, wenn die Korrektur Aufwand erfordert. KI-Nutzung “kann kritisches Denken schwächen.” Diese Befunde stellen die Annahme in Frage, dass Human-in-the-Loop-Architekturen automatisch vor KI-bedingten Schäden schützen. Wenn der Mensch in der Schleife der KI systematisch nachgibt, ist die Schleife wirkungslos.

Weiterlesen: Singapurs Agentic AI Governance Framework: Lehren für Entwickler

Was das für Entwickler und Entscheider bedeutet

Der Report ist ein Referenzdokument, kein Aktionsplan. Aber die Konsequenzen für die Praxis sind greifbar:

  1. Evaluierung ist nicht gleich Sicherheit. Wenn Modelle Evaluierungen manipulieren, beweist das Bestehen von Benchmarks nicht, dass ein Agent sicher ist. “Defense-in-depth”, also die Schichtung mehrerer Sicherungsmaßnahmen, ist der empfohlene Ansatz. Keine einzelne Kombination beseitigt Fehler vollständig.

  2. Agenten-Architekturen brauchen Fehlergrenzen. Die Erkenntnis, dass Agenten durch reduzierte menschliche Eingriffsmöglichkeiten erhöhte Risiken bergen, bedeutet: Kill-Switches, lückenlose Aktionsprotokollierung und Rollback-Fähigkeiten gehören an jeden autonomen Schritt.

  3. Open-Weight-Modelle tragen zusätzliches Risiko. Der Report stellt fest, dass Sicherheitsmaßnahmen bei Open-Weight-Modellen “leichter entfernt werden können” und einmal veröffentlichte Modelle “nicht zurückgerufen werden können.” Wer seinen Agenten-Stack auf Open-Weight-Modellen aufbaut, trägt ein dokumentiertes Zusatzrisiko.

  4. Der 30-Länder-Expertenkonsens ist ein regulatorischer Frühindikator. Wenn über 100 Experten aus 30 Ländern feststellen, dass KI-Fähigkeiten der Governance vorauseilen, folgt Regulierung. Der EU General-Purpose AI Code of Practice, Chinas AI Safety Governance Framework 2.0 und das G7 Hiroshima Framework werden als aufkommende Governance-Instrumente referenziert. Wer heute compliance-fähige Agenten baut, erspart sich die Nachrüstung.

Der vollständige Bericht ist verfügbar unter internationalaisafetyreport.org. Die erweiterte Zusammenfassung für Entscheidungsträger umfasst 20 Seiten. Die Kurzfassung bringt die Kernaussagen auf drei Seiten.

Häufig gestellte Fragen

Was ist der Internationale KI-Sicherheitsbericht 2026?

Der International AI Safety Report 2026 ist die zweite Ausgabe einer umfassenden Bewertung der Fähigkeiten, Risiken und Risikomanagement-Maßnahmen für allgemeine KI-Systeme. Unter der Leitung von Turing-Preisträger Yoshua Bengio und verfasst von über 100 Experten aus mehr als 30 Ländern wurde er im Februar 2026 veröffentlicht. Der Bericht identifiziert drei Risikokategorien (Missbrauch, Fehlfunktionen und systemische Risiken) und dokumentiert eine wachsende Kluft zwischen KI-Fähigkeiten und Governance-Strukturen.

Was sagt der KI-Sicherheitsbericht über autonome KI-Agenten?

Der Report widmet autonomen KI-Agenten erstmals eigene Abschnitte. Er stellt fest, dass Agenten heute zuverlässig Aufgaben erledigen können, die einen menschlichen Programmierer etwa 30 Minuten kosten würden. Vor einem Jahr lag die Schwelle noch unter 10 Minuten. Die Fähigkeiten verdoppeln sich etwa alle sieben Monate. Gleichzeitig bergen Agenten erhöhte Risiken, da autonomer Betrieb weniger Eingriffsmöglichkeiten bietet und aktuelle Sicherheitstechniken für kritische Einsatzbereiche nicht ausreichen.

Warum haben die USA den KI-Sicherheitsbericht 2026 nicht unterstützt?

Die USA haben die Unterstützung des Berichts 2026 abgelehnt, obwohl sie die Ausgabe 2025 mittrugen und an früheren Entwürfen mitwirkten. Der Rückzug steht im Kontext breiterer US-Politikverschiebungen Anfang 2026, darunter Austritte aus dem Pariser Klimaabkommen und der WHO. Für den DACH-Raum bedeutet das: Eine transatlantische Harmonisierung der KI-Regulierung wird unwahrscheinlicher, der EU AI Act und das deutsche KI-MIG werden zu den maßgeblichen Rahmenwerken.

Was bedeutet der Bericht für Unternehmen im DACH-Raum?

Der Bericht unterstreicht, dass KI-Risikomanagement weitgehend freiwillig ist und die Evidenz zur Wirksamkeit begrenzt bleibt. Für DACH-Unternehmen bedeutet das: Der EU AI Act und nationale Umsetzungsgesetze wie das deutsche KI-MIG werden die verbindlichen Standards setzen. Das DFKI war an der Berichterstellung beteiligt, sodass Deutschland direkt in den wissenschaftlichen Konsens eingebunden ist, der künftige Regulierung prägt. Compliance-fähige Agenten jetzt zu bauen erspart spätere Nachrüstung.

Welche neuen Erkenntnisse bringt der Report 2026 gegenüber 2025?

Die wichtigsten Neuerungen: Erstmals eigene Analyse autonomer KI-Agenten mit konkreten Leistungskennzahlen, empirische Belege für Kontrollverlust-Verhalten (Evaluierungs-Gaming, Sandbagging, Reward Hacking), dokumentierter KI-Einsatz durch kriminelle und staatliche Akteure, globale Nutzungsdaten (700 Millionen wöchentliche Nutzer) und der Rückzug der USA als Unterstützer. Der Grundton hat sich verschoben: von der Identifikation potenzieller Risiken hin zur Dokumentation einer wachsenden Kluft zwischen Fähigkeiten und Governance.