Fünfundzwanzig Datenschutzbehörden in Europa kontaktieren gerade Unternehmen mit einer zentralen Frage: Verstehen Ihre Nutzer wirklich, was Sie mit deren Daten machen? Der EDPB hat seinen Coordinated Enforcement Framework 2026 (CEF) gestartet, der sich auf die Transparenz- und Informationspflichten nach DSGVO Artikel 12, 13 und 14 konzentriert. Das ist keine Leitlinie und keine Empfehlung. Es ist eine laufende, länderübergreifende Durchsetzungsmaßnahme, bei der Ermittler bereits aktiv auf Verantwortliche zugehen.
Für Betreiber von KI-Agenten kommt das zur denkbar schlechtesten Zeit. Die meisten Datenschutzerklärungen wurden für Webformulare und Cookie-Banner geschrieben, nicht für autonome Systeme, die Daten aus APIs ziehen, in Millisekunden Entscheidungen treffen und drei LLM-Aufrufe verketten, bevor ein Mensch das Ergebnis überhaupt sieht. Genau diese Lücke zwischen Datenschutzerklärung und tatsächlicher Datenverarbeitung steht jetzt im Fokus von 25 Aufsichtsbehörden.
Was der EDPB konkret prüft
Der CEF folgt einem etablierten Muster. 2023 koordinierten die Behörden ihre Prüfung der Rolle von Datenschutzbeauftragten. 2024 ging es um das Auskunftsrecht, 2025 um das Recht auf Löschung. Jedes Jahr wählt der EDPB eine DSGVO-Pflicht aus, einigt sich auf eine gemeinsame Methodik, und dann prüfen 20+ nationale Behörden gleichzeitig Verantwortliche in ihrem Zuständigkeitsbereich.
Für 2026 ist das Thema Transparenz: konkret Artikel 12, 13 und 14. Diese Vorschriften verlangen, dass Sie Betroffenen mitteilen, welche Daten Sie erheben, warum, an wen Sie sie weitergeben, wie lange Sie sie speichern und welche Rechte die Betroffenen haben. Artikel 12 setzt den Maßstab für die Darstellung: präzise, transparent, verständlich, leicht zugänglich und in klarer, einfacher Sprache.
So läuft die Prüfung ab
Die am CEF beteiligten Behörden verwenden zwei Ansätze. Einige versenden formelle Fragebögen als Faktenerhebung. Andere starten vollständige Durchsetzungsverfahren mit Dokumentenanforderung, Systemprüfungen und möglichen Anordnungen oder Bußgeldern. Die Methodik wird zentral vom EDPB koordiniert, aber jede nationale Behörde entscheidet eigenständig über die Intensität.
Die Ergebnisse werden sowohl auf nationaler Ebene als auch über den gesamten Europäischen Wirtschaftsraum hinweg ausgewertet. Eine Transparenzlücke, die der BfDI, die französische CNIL oder eine der 16 deutschen Landesbehörden identifiziert, kann zur Grundlage für eine EDPB-weite Leitlinie werden und damit den Durchsetzungsstandard für ganz Europa setzen.
Warum KI-Agenten-Betreiber besonders im Fokus stehen
Der CEF zielt nicht ausdrücklich auf KI-Systeme ab, muss er aber auch nicht. Artikel 12-14 gelten für alle Verantwortlichen, die personenbezogene Daten verarbeiten. KI-Agenten-Betreiber haben die größten Transparenzlücken, weil ihre Systeme am schwierigsten in einfacher Sprache zu beschreiben sind.
Was Artikel 13 und 14 konkret verlangen:
Zwecke der Verarbeitung und Rechtsgrundlage (Artikel 13 Abs. 1 lit. c). Bei einem KI-Agenten, der seine Arbeitsschritte dynamisch bestimmt, kann sich der Zweck mitten in der Ausführung ändern. Ihre Datenschutzerklärung sagt “Optimierung des Kundenservice”. Ihr Agent hat gerade die Kaufhistorie des Nutzers, eine Sentiment-Analyse aus einem früheren Anruf und einen externen Kredit-Score abgerufen, um über einen Rabatt zu entscheiden.
Empfänger der personenbezogenen Daten (Artikel 13 Abs. 1 lit. e). Wenn Ihr Agent bei einer einzigen Aufgabe eine externe LLM-API, eine Such-API und einen CRM-Anreicherungsdienst aufruft, ist jeder davon ein Empfänger. Die meisten Datenschutzerklärungen listen Kategorien (“Dienstleister”) statt konkreter Angaben, was die Aufsichtsbehörden bereits als unzureichend eingestuft haben.
Automatisierte Entscheidungsfindung einschließlich Profiling (Artikel 13 Abs. 2 lit. f). Verlangt werden “aussagekräftige Informationen über die involvierte Logik sowie die Tragweite und die angestrebten Auswirkungen”. Bei einem LLM-gesteuerten Agenten ist die Erklärung der “involvierten Logik” auf eine Weise, die sowohl korrekt als auch “verständlich” ist, eine echte technische Herausforderung.
Die fünf Transparenzlücken, die KI-Agenten-Betreiber schließen müssen
Die meisten Unternehmen haben Datenschutzerklärungen, die für ihre Vor-Agenten-Architektur ausreichend waren. Das Problem ist nicht, dass diese falsch waren, sondern dass KI-Agenten Verarbeitungstätigkeiten eingeführt haben, die nicht abgedeckt sind.
Lücke 1: Dynamische Datenerhebung
Traditionelle Anwendungen erheben einen definierten Satz von Datenfeldern. Ein KI-Agent erhebt, was er für die Aufgabe als relevant erachtet. Ein Recruiting-Agent könnte mit einem Lebenslauf starten und am Ende LinkedIn-Aktivitäten, GitHub-Beiträge und Glassdoor-Bewertungen verarbeiten. Nichts davon stand in der ursprünglichen Datenschutzerklärung, weil nichts davon vorhersehbar war.
Die Lösung: Implementieren Sie Runtime-Logging, das jede Datenquelle erfasst, die ein Agent während der Aufgabenausführung nutzt. Pflegen Sie damit ein lebendes Verzeichnis der Verarbeitungstätigkeiten. Aktualisieren Sie Ihre Datenschutzerklärung mit den Kategorien von Daten, auf die Ihre Agenten zugreifen können, nicht nur den aktuellen. Der EDPS TechSonar-Bericht hat genau dieses Risiko für agentenbasierte Systeme identifiziert.
Lücke 2: Datenweitergabe an Dritte über API-Aufrufe
Jeder API-Aufruf Ihres Agenten an einen externen Dienst ist eine Datenübermittlung. Wenn Ihr Agent eine Kundenanfrage an die OpenAI-API, eine Suchmaschine oder einen Datenanreicherungsdienst sendet, geben Sie personenbezogene Daten an Dritte weiter. Artikel 13 Abs. 1 lit. e verlangt die Benennung der Empfänger oder Empfängerkategorien.
Die Lösung: Prüfen Sie jede externe API, die Ihre Agenten aufrufen können. Erfassen Sie, welche personenbezogene Daten erhalten. Nehmen Sie diese in Ihre Datenschutzerklärung auf. Prüfen Sie bei LLM-Anbietern speziell, ob die Daten für das Modelltraining verwendet werden, denn das ändert die Rechtsgrundlage und die Offenlegungspflichten.
Lücke 3: Erklärung automatisierter Entscheidungen
Artikel 13 Abs. 2 lit. f verlangt “aussagekräftige Informationen über die involvierte Logik”. Bei regelbasierten Systemen ist das einfach. Bei einem LLM-gesteuerten Agenten, der seine Begründung zur Inferenzzeit generiert, wird “aussagekräftig” zum echten Problem.
Der EuGH stellte in seinem Urteil von 2024 klar, dass Verantwortliche sich nicht hinter Geschäftsgeheimnissen verstecken können, um automatisierte Entscheidungen nicht erklären zu müssen. Sie müssen mindestens die Art der verwendeten Daten, deren Gewichtung und die allgemeine Logik beschreiben.
Die Lösung: Dokumentieren Sie jeden Agenten-Workflow, der Entscheidungen über Personen trifft. Schreiben Sie für jeden eine allgemeinverständliche Erklärung, welche Daten einfließen, welche Faktoren das Ergebnis beeinflussen und welche Konsequenzen die Entscheidung hat. Das ist kein Model Card, sondern ein Absatz, den eine nicht-technische Person lesen und verstehen kann.
Lücke 4: Gestaffelte Information bei komplexer Verarbeitung
Artikel 12 Abs. 1 verlangt, dass Informationen “präzise” und “leicht zugänglich” sind. Eine 15-seitige Datenschutzerklärung, die KI-Agenten-Verarbeitung in Absatz 47 begräbt, besteht diesen Test nicht. Die Artikel-29-Datenschutzgruppe empfiehlt ausdrücklich gestaffelte Hinweise: eine kurze erste Ebene mit dem Wesentlichen und progressive Offenlegung für Details.
Die Lösung: Erstellen Sie einen eigenen Abschnitt “KI-Verarbeitung” in Ihrer Datenschutzerklärung, idealerweise erreichbar über die Oberfläche, an der Nutzer mit Ihrem Agenten interagieren. Die erste Ebene erklärt in 2-3 Sätzen, was der Agent mit personenbezogenen Daten macht. Ein Link führt zur detaillierten Ebene mit Rechtsgrundlage, Datenquellen, Empfängern, Speicherfristen und Entscheidungslogik.
Lücke 5: Artikel 14 bei indirekter Datenerhebung
Wenn Ihr Agent personenbezogene Daten aus anderen Quellen als von der betroffenen Person selbst erhebt (öffentliche Profile scrapen, Daten aus Drittanbieter-APIs abrufen, Datensätze aus externen Datenbanken anreichern), gilt Artikel 14 statt Artikel 13. Artikel 14 hat dieselben Offenlegungspflichten, plus die Pflicht, die Datenquelle und die Datenkategorien mitzuteilen.
Die Lösung: Identifizieren Sie jedes Szenario, in dem Ihr Agent Daten über Personen verarbeitet, die diese nicht selbst bereitgestellt haben. Stellen Sie sicher, dass Ihre Datenschutzerklärung Datenquelle, Datenkategorien und Zweck abdeckt. Artikel 14 Abs. 3 gibt Ihnen maximal einen Monat ab Erhalt der Daten, um die betroffene Person zu informieren.
Überschneidung mit dem KI-Gesetz: Doppelte Compliance
Die Transparenzvorschriften des KI-Gesetzes (AI Act) greifen am 2. August 2026, nur Monate nach Start der EDPB-Transparenzaktion. Das ist kein Zufall. Das KI-Gesetz fügt über die DSGVO hinaus zusätzliche Transparenzpflichten hinzu:
- KI-Systeme, die mit Personen interagieren, müssen offenlegen, dass der Nutzer mit einer KI kommuniziert.
- Emotionserkennungs- und biometrische Kategorisierungssysteme müssen Personen darüber informieren.
- KI-generierte Inhalte, die für echt gehalten werden könnten (Deepfakes), müssen gekennzeichnet werden.
Für Hochrisiko-KI-Systeme unter dem KI-Gesetz verlangt Artikel 13 Gebrauchsanweisungen, die es Betreibern ermöglichen, das System angemessen zu verstehen und zu nutzen. Das ist eine andere Art von Transparenz als die der DSGVO, aber beide gelten gleichzeitig. In Deutschland kommt die nationale Umsetzung durch das KI-MIG als weitere Ebene hinzu.
Ihre Transparenz-Audit-Checkliste
Bevor eine Datenschutzbehörde Sie kontaktiert (oder danach, aber dann mit mehr Dringlichkeit):
Kartieren Sie die tatsächlichen Datenflüsse Ihrer KI-Agenten. Nicht das Design, sondern was in der Produktion wirklich passiert. Verwenden Sie Runtime-Logs, nicht Architekturdiagramme.
Gleichen Sie Ihre Datenschutzerklärung mit der Realität ab. Deckt sie jede Datenquelle ab, die Ihre Agenten nutzen? Jede externe API? Jede Art von Entscheidung?
Testen Sie den “einfache Sprache”-Standard. Geben Sie Ihre Datenschutzerklärung jemandem außerhalb Ihres Technikteams. Wenn diese Person danach nicht erklären kann, was Ihr KI-Agent mit personenbezogenen Daten macht, besteht Ihre Erklärung den Artikel-12-Test nicht.
Implementieren Sie gestaffelte Offenlegung. Kurze Zusammenfassung direkt an der Agenten-Oberfläche, detaillierter Hinweis einen Klick entfernt.
Dokumentieren Sie die Entscheidungslogik. Pflegen Sie für jeden Agenten, der Entscheidungen über Personen trifft, eine aktuelle allgemeinverständliche Erklärung.
Prüfen Sie Artikel 14-Szenarien. Jeder Agent, der Daten über Personen verarbeitet, die diese nicht selbst bereitgestellt haben, löst separate Offenlegungspflichten aus.
Bereiten Sie sich auf die KI-Gesetz-Überschneidung vor. Stellen Sie sicher, dass Ihr KI-System seine künstliche Natur offenlegt, wo nötig, und dass Hochrisikosysteme adäquate Dokumentation für Betreiber haben.
Die koordinierten Durchsetzungsmaßnahmen des EDPB münden in öffentliche Berichte. Der CEF-Bericht 2023 zu Datenschutzbeauftragten führte zu verbindlichen Empfehlungen. Der Bericht 2025 zum Recht auf Löschung veränderte, wie Unternehmen Löschanfragen bearbeiten. Der Transparenzbericht 2026 wird den Standard dafür setzen, wie Unternehmen KI-gestützte Datenverarbeitung erklären müssen. Besser davor zu stehen als drin.
Häufig gestellte Fragen
Was ist der EDPB Coordinated Enforcement Framework 2026?
Der CEF 2026 des EDPB zielt auf Transparenz- und Informationspflichten nach DSGVO Artikel 12, 13 und 14 ab. 25 nationale Datenschutzbehörden in Europa führen koordinierte Untersuchungen durch, wie Organisationen Betroffene über die Verarbeitung personenbezogener Daten informieren. Die Behörden kontaktieren Verantwortliche durch Fragebögen, Faktenerhebungen und formelle Durchsetzungsverfahren.
Wie betrifft die EDPB-Transparenz-Durchsetzung KI-Agenten-Betreiber?
KI-Agenten-Betreiber haben spezifische Transparenzlücken, weil ihre Systeme Daten dynamisch verarbeiten, API-Aufrufe an Dritte tätigen und automatisierte Entscheidungen treffen, die in den meisten Datenschutzerklärungen nicht beschrieben sind. Die Durchsetzungsaktion verlangt von Betreibern, Datenerhebung, Weitergabe an Dritte und automatisierte Entscheidungslogik in verständlicher Sprache zu erklären.
Welche DSGVO-Artikel umfasst die Transparenz-Durchsetzung 2026?
Die Durchsetzung umfasst Artikel 12, 13 und 14. Artikel 12 setzt Standards für die Darstellung von Informationen (präzise, transparent, einfache Sprache). Artikel 13 regelt die Offenlegung bei direkter Datenerhebung. Artikel 14 regelt die Offenlegung bei Daten aus anderen Quellen, was bei KI-Agenten häufig vorkommt, die Daten aus Drittanbieter-APIs oder öffentlichen Quellen abrufen.
Wie überschneiden sich EDPB-Durchsetzung und KI-Gesetz bei der Transparenz?
Die Transparenzvorschriften des KI-Gesetzes greifen am 2. August 2026, kurz nach Start der DSGVO-Transparenz-Durchsetzung des EDPB. Das KI-Gesetz fügt Pflichten hinzu wie die Offenlegung der KI-Interaktion gegenüber Nutzern und technische Dokumentation für Hochrisikosysteme. Unternehmen müssen beide Transparenzregelwerke einhalten, die sich ergänzen statt ersetzen.
Was sollten Unternehmen zur Vorbereitung auf ein DSGVO-Transparenz-Audit ihrer KI-Agenten tun?
Tatsächliche Datenflüsse aus Runtime-Logs kartieren, Datenschutzerklärungen aktualisieren für alle Datenquellen und API-Aufrufe, Erklärungen mit nicht-technischen Lesern auf Verständlichkeit testen, gestaffelte Offenlegung mit Kurzfassung an der Agenten-Oberfläche implementieren, Entscheidungslogik für jeden Agenten dokumentieren und Artikel 14-Compliance für alle Agenten prüfen, die Daten verarbeiten, die nicht direkt von der betroffenen Person stammen.
