Know Your Agent (KYA) verknüpft jede Aktion eines KI-Agenten mit einer verifizierten menschlichen Identität. Dieses eine Prinzip bildet das gesamte Framework. Bot-Erkennung, Liveness-Checks, Verhaltens-Scoring und Audit-Trails dienen einem einzigen Zweck: Diese Verknüpfung muss regulatorischer Prüfung und realen Betrugsszenarien standhalten.

Sumsub hat im Januar 2026 die erste kommerzielle KYA-Lösung vorgestellt. Der Identity Fraud Report 2025-2026 des Unternehmens dokumentiert einen Anstieg koordinierter Mehrschritt-Angriffe um 180 Prozent gegenüber dem Vorjahr. KI-Betrugsagenten sind autonome Systeme, die gefälschte Dokumente erstellen, Verifikationsschnittstellen umgehen und aus gescheiterten Versuchen lernen. KYA schließt eine Lücke, die KYC und KYB nie adressiert haben: Wer haftet, wenn ein Agent auf einer Plattform handelt?

Weiterlesen: KI-Agent-Identität: Warum Agenten eigenes IAM brauchen

Von KYC zu KYA: Warum Agenten-Identität ein Betrugsproblem ist

KYC (Know Your Customer) prüft, ob ein Mensch tatsächlich die Person ist, die er vorgibt zu sein, bevor er Zugang zu Finanzdienstleistungen erhält. KYB (Know Your Business) erweitert dieses Prinzip auf Organisationen. Beide Frameworks setzen voraus, dass die zu verifizierende Instanz entweder eine natürliche Person oder ein eingetragenes Unternehmen ist.

KI-Agenten sind keines von beiden. Ein Agent kann Konten eröffnen, Zahlungen auslösen, Datenbanken abfragen und mit Verifikationssystemen in Maschinengeschwindigkeit interagieren. 2025 meldeten 40 Prozent der befragten Unternehmen und 52 Prozent der Endnutzer, Betrugsopfer geworden zu sein. KI-gestützter Betrug stieg um 1.210 Prozent, wie AU10TIX in ihrem Global Fraud Report dokumentiert. Die Verifikationslücke ließ sich nicht länger ignorieren.

Die zentrale Erkenntnis hinter KYA: Agentenverifizierung ist keine Erweiterung von IAM. Es ist eine Erweiterung von KYC. IAM beantwortet die Frage “Worauf darf dieser Agent zugreifen?” KYA beantwortet “Wer haftet, wenn dieser Agent etwas Falsches tut?” Beides wird gebraucht. Aber ohne KYA kann ein Agent perfekte Zugriffskontrollen haben und trotzdem Aktionen ausführen, für die niemand verantwortlich ist.

So funktioniert KYA: Die vier Säulen

Das KYA-Framework von Sumsub gliedert die Agentenverifizierung in vier Schichten. Andere Anbieter und Branchenverbände arbeiten an ähnlichen Strukturen, aber Sumsubs Lösung ist aktuell die ausgereifteste am Markt.

Agenten-Erkennung und Klassifizierung

Bevor ein Agent verifiziert werden kann, muss er überhaupt erkannt werden. Sumsubs Device-Intelligence-Schicht erkennt automatisierte Aktivität in Echtzeit und stuft sie nach Risiko ein. Nicht jeder Bot ist eine Bedrohung. Ein Preisvergleichs-Agent, der API-Aufrufe tätigt, unterscheidet sich grundlegend von einem Credential-Stuffing-Bot, der tausende Login-Kombinationen durchprobiert.

Die Klassifizierung bestimmt die Verifikationsstufe. Automatisierung mit niedrigem Risiko (Preisabfragen, Datenaggregation) erhält eine leichtere Prüfung. Automatisierung mit hohem Risiko (Kontoeröffnung, Zahlungsauslösung, Zugriff auf personenbezogene Daten) löst die vollständige KYA-Verifizierung mit Human Binding aus.

Agent-to-Human Binding

Das ist die zentrale Innovation. Jeder Agent, der die Risikoschwelle überschreitet, muss mit einer verifizierten menschlichen Identität verknüpft werden. Die verantwortliche Person durchläuft eine Standard-KYC-Prüfung (Dokumentencheck, Liveness-Verifizierung), und diese verifizierte Identität wird zum Verantwortlichkeitsanker des Agenten.

Wenn der Agent handelt, ist die Aktion bis zu einer konkreten Person rückverfolgbar. Eröffnet der Agent ein betrügerisches Konto, ist die Person dahinter identifizierbar. Greift der Agent auf gesperrte Daten zu, steht am Ende des Audit-Trails ein namentlich bekannter Mensch.

Das unterscheidet sich vom IAM-Konzept des “Human Sponsor” oder “Agent Owner.” IAM verknüpft einen Agenten mit einem Benutzerkonto. KYA verknüpft einen Agenten mit einer Person, die sich mit amtlichem Ausweisdokument verifiziert hat. Diese Prüftiefe macht den Unterschied.

Kontinuierliches Risiko-Scoring

Eine einmalige Verifikation reicht nicht aus. Ein Agent, der um 9:00 Uhr verifiziert wurde, kann um 9:15 Uhr kompromittiert sein. Sumsub wendet über den gesamten Lebenszyklus des Agenten ein kontinuierliches verhaltens- und kontextbasiertes Risiko-Scoring an.

Das System überwacht Anomalien: plötzliche Änderungen in Transaktionsmustern, Zugriff auf Ressourcen außerhalb des normalen Einsatzbereichs des Agenten, geografische Unmöglichkeiten und Geschwindigkeitsauffälligkeiten. Überschreiten die Risikowerte definierte Schwellen, kann das System die Aktivität des Agenten pausieren, seinen Handlungsspielraum einschränken oder eine erneute Liveness-Verifizierung der gebundenen Person auslösen.

Audit-Trail und Nachweisführung

KYA erzeugt das, was Sumsub als “evidence-grade” Audit-Trails bezeichnet. Jede Agentenaktion wird protokolliert: die Identität des Agenten, die verifizierte Identität der gebundenen Person, die zum Zeitpunkt der Aktion aktive Berechtigung, der Risikoscore und das Ergebnis der Aktion.

Ohne belastbare Nachweisführung lässt sich nicht beweisen, ob eine Aktion autorisiert, kompromittiert oder gefälscht war. Das ist relevant, weil der EU AI Act explizit die Rückverfolgbarkeit von KI-Systemaktionen fordert und Finanzregulierer wie die BaFin vergleichbare Erwartungen an agenteninitierte Transaktionen formulieren.

Weiterlesen: EU AI Act 2026: Was Unternehmen bis August umsetzen müssen

Die Betrugszahlen hinter KYA

Die Dringlichkeit hinter KYA ist datengetrieben. Sumsubs Identity Fraud Report analysiert über 4 Millionen Betrugsversuche aus 2024-2025.

Mehrschritt-Betrug (koordinierte Angriffe über mehrere Stufen) wuchs von 10 auf 28 Prozent aller Identitätsbetrugsfälle. Das sind die 180 Prozent Anstieg gegenüber dem Vorjahr. Gleichzeitig sank die Gesamtbetrugsrate leicht von 2,6 auf 2,2 Prozent. Weniger Akteure, dafür deutlich professionellere Operationen.

KI-gestützte Dokumentenfälschung stieg innerhalb eines Jahres von praktisch null auf 2 Prozent aller Betrugsfälle. Werkzeuge wie ChatGPT und Grok generieren mittlerweile überzeugende gefälschte Ausweisdokumente auf Knopfdruck.

Die eigentliche Sorge für 2026 sind sogenannte “KI-Betrugsagenten.” Das sind keine einfachen Bots oder Skripte. Sie kombinieren generative KI, Browser-Automatisierung und Reinforcement Learning zu autonomen Systemen, die vollständige Betrugsoperationen mit minimalem menschlichem Eingriff durchführen. Sie erstellen gefälschte Ausweise, interagieren in Echtzeit mit Verifikationsschnittstellen und verfeinern ihre Taktiken auf Basis gescheiterter Versuche.

Das World Economic Forum schätzt den Markt für KI-Agenten auf bis zu 236 Milliarden US-Dollar bis 2034. Diese Bewertung steht und fällt mit der Frage, ob die Vertrauensinfrastruktur mit der Deploymentgeschwindigkeit mithält.

Warum pauschales Bot-Blocking nicht mehr funktioniert

Die meisten Plattformen behandeln Automatisierung nach wie vor als grundsätzlich verdächtig und blockieren sie standardmäßig. Das funktionierte, als Bots einfache Scraper waren. Es versagt, wenn legitime Unternehmen Agenten für Beschaffung, Kundenservice, Compliance-Monitoring und Marktanalyse einsetzen.

Das durchschnittliche Unternehmen betreibt inzwischen 12 KI-Agenten über verschiedene Abteilungen hinweg, laut Salesforces Connectivity Report 2026. B2B-Plattformen empfangen einen wachsenden Mix aus menschlichem und Agenten-Traffic. KYAs risikobasierte Klassifizierung ermöglicht es Plattformen, legitime Agentenaktivität zuzulassen und gleichzeitig bösartige Agenten abzufangen, statt alles zu blockieren und zahlende Kunden zu vergraulen.

Weiterlesen: Unkontrollierte KI-Agenten: Was 1,5 Millionen unbeaufsichtigte Agenten wirklich anrichten

KYA, EU AI Act und DSGVO: Wo Compliance konkret wird

Der EU AI Act tritt am 2. August 2026 für Hochrisiko-KI-Systeme in Kraft und schafft damit einen direkten regulatorischen Treiber für KYA. Artikel 14 verlangt menschliche Aufsicht über Hochrisiko-KI-Systeme. Die Transparenzanforderungen des Gesetzes verlangen Rückverfolgbarkeit bis zu verantwortlichen natürlichen Personen.

KYA adressiert drei spezifische Anforderungen des EU AI Act.

Menschliche Aufsicht (Artikel 14). KYAs Agent-to-Human Binding erfüllt direkt die Anforderung, dass eine natürliche Person als verantwortlich für KI-Systemaktionen identifizierbar sein muss. Die Bindung wird durch Ausweisdokumente und Liveness-Checks verifiziert, nicht nur in einem Policy-Dokument festgehalten.

Rückverfolgbarkeit (Artikel 12). KYAs Audit-Trails in Beweisqualität liefern die vom Gesetz geforderte technische Protokollierung. Jede Aktion dokumentiert die vollständige Identitätskette vom Agenten zur Person, den Berechtigungskontext, den Risikoscore und das Ergebnis.

Transparenz (Artikel 13). KYA verlangt, dass Agenten als automatisierte Systeme erkennbar sind. Die Erkennungs- und Klassifizierungsschicht kennzeichnet Agentenaktivität, bevor eine Verifizierung stattfindet, und verhindert so, dass Agenten als menschliche Nutzer durchgehen.

Die DSGVO-Dimension

Für DACH-Unternehmen kommt eine weitere Ebene hinzu. Ein KI-Agent, der personenbezogene Daten verarbeitet, löst sowohl eine EU-AI-Act-Verpflichtung als auch eine DSGVO-Verantwortlichkeit nach Art. 5 und Art. 82 aus. Wer ist der Verantwortliche im Sinne der DSGVO, wenn ein Agent eigenständig Kundendaten verarbeitet?

KYA beantwortet diese Frage auf der Ebene des einzelnen Agenten, nicht nur auf Organisationsebene. Für die Datenschutz-Folgenabschätzung (DSFA) nach Art. 35 DSGVO, die bei Hochrisikoverarbeitungen ohnehin Pflicht ist, liefert KYA die nötige Dokumentationsgrundlage: welcher Agent verarbeitet welche Daten, wer ist verantwortlich, welche Risikobewertung lag zum Zeitpunkt der Verarbeitung vor.

Die BaFin stellt mit den MaRisk-Anforderungen an IT-Sicherheit und den BAIT (Bankaufsichtliche Anforderungen an die IT) zusätzliche Anforderungen an Finanzdienstleister. KI-Agenten, die in regulierten Finanzprozessen agieren, brauchen die Art von Nachweisführung, die KYA liefert.

Weiterlesen: DSGVO und KI-Agenten: Datenschutz-Folgenabschätzung für autonome Systeme

KYA umsetzen: Was DACH-Unternehmen jetzt tun sollten

KYA ist kein Produkt, das man kauft und installiert. Es ist eine Compliance-Fähigkeit, die schrittweise aufgebaut wird.

Agenten inventarisieren. Alle KI-Agenten in der eigenen Umgebung erfassen: worauf greifen sie zu, erstellen, ändern oder löschen sie Daten? Agenten, die mit externen Systemen interagieren oder personenbezogene Daten verarbeiten, sind die Hochrisiko-Kandidaten und die ersten KYA-Ziele.

Agenten Personen zuordnen. Für jeden Hochrisiko-Agenten eine namentlich benannte Person als Verantwortliche identifizieren. Nicht das Team. Nicht die Abteilung. Eine Person. Wenn niemand die Verantwortung für einen Agenten übernehmen will, sollte dieser Agent nicht laufen.

Gestufte Verifizierung einführen. Nicht jeder Agent braucht vollständiges KYA. Ein Read-Only-Analytics-Agent in einer Sandbox braucht weniger als ein zahlungsauslösender Agent in der Produktivumgebung. Risikobasierte Stufen nutzen: Niedrigrisiko-Agenten erhalten Basisregistrierung, Mittelrisiko-Agenten organisatorische Bindung, Hochrisiko-Agenten vollständige Human-Identity-Bindung mit Liveness-Checks.

Audit-Trail jetzt starten. Auch vor der Einführung einer vollständigen KYA-Lösung sollten Agentenaktionen mit Metadaten zur menschlichen Verantwortlichkeit protokolliert werden. Wenn Regulierer nach August 2026 fragen, will man Monate historischer Daten vorweisen, nicht das Versprechen, nächstes Quartal mit der Protokollierung zu beginnen.

Stack wählen. Sumsub führt bei KYA als Produkt. Microblink und AU10TIX bauen vergleichbare Fähigkeiten auf. Für die IAM-Ebene KYA mit Identitätsplattformen wie Microsoft Entra Agent ID oder Auth0s Auth for GenAI kombinieren. KYA sichert Verantwortlichkeit. IAM sichert Zugriff. Zusammen decken sie den gesamten Agenten-Identitätslebenszyklus ab.

Weiterlesen: KI-Agent-Sicherheit: Die Governance-Lücke, die 88% der Unternehmen bereits spüren

Häufig gestellte Fragen

Was ist Know Your Agent (KYA)?

Know Your Agent (KYA) ist ein risikobasiertes Framework zur Verifizierung und Überwachung von KI-Agenten. Es bindet jeden Agenten an eine verifizierte menschliche Identität (ähnlich KYC), erzwingt kontinuierliches Monitoring und stellt die Nachvollziehbarkeit aller autonomen Aktionen sicher. Sumsub hat im Januar 2026 die erste kommerzielle KYA-Implementierung veröffentlicht.

Wie unterscheidet sich KYA von IAM für KI-Agenten?

IAM (Identity and Access Management) kontrolliert, worauf ein Agent zugreifen darf. KYA kontrolliert, wer für die Aktionen des Agenten haftet, indem der Agent an eine mit Ausweisdokument und Liveness-Check verifizierte Person gebunden wird. IAM vergibt Berechtigungen. KYA vergibt Verantwortlichkeit. Für umfassende Agenten-Governance werden beide Ansätze benötigt.

Verlangt der EU AI Act KYA?

Der EU AI Act nennt KYA nicht namentlich, aber seine Anforderungen an menschliche Aufsicht (Artikel 14), Rückverfolgbarkeit (Artikel 12) und Transparenz (Artikel 13) lassen sich direkt auf KYA-Fähigkeiten abbilden. KYAs Agent-to-Human Binding erfüllt die Anforderung nach Artikel 14, eine verantwortliche natürliche Person identifizieren zu können. Die Frist am 2. August 2026 für Hochrisiko-KI-Systeme macht die KYA-Einführung zunehmend dringlich.

Welche KI-Agenten brauchen KYA-Verifizierung?

Nicht jeder Agent braucht vollständige KYA-Verifizierung. Ein risikobasierter Ansatz funktioniert am besten: Niedrigrisiko-Agenten (Nur-Lese-Analysen, Datenaggregation) benötigen Basisregistrierung. Mittelrisiko-Agenten (interne Datenverarbeitung, Berichterstellung) benötigen organisatorische Bindung. Hochrisiko-Agenten (Zahlungsauslösung, Kontoeröffnung, Zugriff auf personenbezogene Daten) benötigen vollständige Human-Identity-Bindung mit Liveness-Checks.

Was bedeutet KYA für DSGVO-Compliance?

Ein KI-Agent, der personenbezogene Daten verarbeitet, löst DSGVO-Pflichten aus: Verantwortlichkeit nach Art. 5, Haftung nach Art. 82, und bei Hochrisikoverarbeitungen eine Datenschutz-Folgenabschätzung nach Art. 35. KYA dokumentiert, welcher Agent welche Daten verarbeitet und wer dafür verantwortlich ist. Damit liefert KYA die Nachweisgrundlage, die Datenschutzbehörden bei Prüfungen erwarten.

Cover image by Christina @ wocintechchat.com on Unsplash Source