Foto von Scott Graham auf Unsplash (freie Lizenz) Source

Am 2. August 2026 springt die Bußgeldobergrenze für den Betrieb eines KI-Agenten ohne ordnungsgemäße Dokumentation von 20 Millionen auf 55 Millionen Euro. Die Hochrisiko-Vorschriften der KI-Verordnung kumulieren mit bestehenden DSGVO-Sanktionen. Ein einzelner KI-Agent, der personenbezogene Daten verarbeitet, kann gleichzeitig gegen beide Regelwerke verstoßen. Die DSGVO begrenzt Bußgelder auf 20 Millionen Euro oder 4 % des weltweiten Jahresumsatzes. Die KI-Verordnung legt bis zu 35 Millionen Euro oder 7 % des weltweiten Jahresumsatzes obendrauf. Beide Rahmenwerke gelten parallel. Keines ersetzt das andere.

Die konkrete Pflicht, die die meisten Unternehmen übersehen: Jeder KI-Agent, der personenbezogene Daten in einer Weise verarbeitet, die ein hohes Risiko für Betroffene birgt, erfordert vor dem Einsatz nicht eine, sondern zwei formale Prüfungen. Eine Datenschutz-Folgenabschätzung (DSFA) nach Art. 35 DSGVO und eine Grundrechte-Folgenabschätzung (GRFA) nach Art. 27 der KI-Verordnung. In fünf Monaten ist der Betrieb ohne beide Prüfungen ein Compliance-Verstoß mit echten Durchsetzungskonsequenzen.

Weiterlesen: EU AI Act 2026: Was Unternehmen bis August umsetzen müssen

Die DSFA ist für KI-Agenten nicht mehr optional

Art. 35 DSGVO verlangt seit 2018 eine DSFA für Verarbeitungen, die “voraussichtlich ein hohes Risiko für die Rechte und Freiheiten natürlicher Personen” bergen. Viele Unternehmen haben diese Pflicht jahrelang als Formalität behandelt oder bei internen Tools komplett übergangen. Bei KI-Agenten funktioniert das nicht mehr.

Die CNIL (französische Datenschutzbehörde) hat klar festgestellt, dass bei Hochrisiko-KI-Systemen mit personenbezogenen Daten die Durchführung einer DSFA “grundsätzlich notwendig” ist. Nicht empfohlen. Notwendig. Der BfDI führt eine Muss-Liste von Verarbeitungsvorgängen, die stets eine DSFA erfordern. Profiling, automatisierte Entscheidungsfindung und systematische Überwachung öffentlich zugänglicher Bereiche stehen alle darauf. Ein KI-Agent, der Bewerber bewertet, Kundenanfragen nach Stimmung priorisiert oder Versicherungsanträge nach Risikoprofil einordnet, trifft mehrere Auslöser gleichzeitig.

Warum KI-Agenten jeden Auslöser treffen

Art. 35 Abs. 3 DSGVO listet drei Szenarien, in denen eine DSFA stets erforderlich ist:

  1. Systematische und umfassende Bewertung persönlicher Aspekte mit erheblichen Auswirkungen: Ein KI-Agent, der Mitarbeiterleistungen bewertet, Kreditanträge prüft oder Vertriebs-Leads anhand von Verhaltensdaten rankt, fällt hierunter.

  2. Umfangreiche Verarbeitung besonderer Kategorien personenbezogener Daten: Jeder Agent, der Gesundheitsdaten, biometrische Daten oder Daten zur ethnischen Herkunft verarbeitet, löst diese Pflicht automatisch aus.

  3. Systematische Überwachung öffentlich zugänglicher Bereiche: KI-Agenten, die öffentliche Webdaten scrapen, Social-Media-Kanäle auswerten oder öffentlich gepostete Bewertungen analysieren, fallen unter diese Vorschrift.

Die Leitlinien der Art.-29-Datenschutzgruppe (übernommen vom EDSA) ergänzen einen Praxistest: Erfüllt eine Verarbeitung zwei oder mehr Kriterien aus ihrer Neun-Punkte-Liste (darunter “innovative Nutzung von Technologie,” “Bewertung oder Scoring” und “Daten schutzbedürftiger Personen”), ist eine DSFA zwingend. KI-Agenten erfüllen typischerweise vier oder fünf Kriterien dieser Liste.

Das Ergebnis: Es ist schwer, ein Szenario zu konstruieren, in dem ein KI-Agent personenbezogene Daten verarbeitet und keine DSFA erforderlich ist. Die rechtliche Vermutung hat sich faktisch umgekehrt: von “prüfen Sie, ob Sie eine brauchen” zu “dokumentieren Sie, warum Sie glauben, keine zu brauchen.”

Weiterlesen: DSGVO und KI-Agenten: Datenschutz bei maschinellen Entscheidungen

Die GRFA: Eine zweite Prüfung, die die meisten Unternehmen nicht kennen

Art. 27 der KI-Verordnung führt die Grundrechte-Folgenabschätzung ein, eine Anforderung ohne Vorläufer im europäischen Datenschutzrecht. Anders als die DSFA, die sich auf Risiken der Datenverarbeitung konzentriert, bewertet die GRFA breitere Auswirkungen auf Grundrechte: Nichtdiskriminierung, Meinungsfreiheit, Menschenwürde und Verfahrensgerechtigkeit.

Wer muss eine GRFA durchführen?

Die Pflicht betrifft zwei Kategorien von Betreibern, die Hochrisiko-KI-Systeme nach Anhang III einsetzen:

  • Öffentliche Stellen und Einrichtungen, die öffentliche Dienste erbringen: Behörden, öffentliche Krankenhäuser, staatliche Universitäten, Versorgungsunternehmen und jedes private Unternehmen, das öffentliche Aufgaben wahrnimmt (ausgelagerte Sozialleistungsprüfung, ÖPNV, kommunale Dienste).

  • Betreiber im Kredit- und Versicherungswesen: Jede Stelle, die KI-Systeme zur Bewertung der Kreditwürdigkeit, Ermittlung von Kredit-Scores oder Risikobewertung und Preisgestaltung bei Lebens- und Krankenversicherungen einsetzt.

Die zweite Kategorie ist breiter, als sie zunächst wirkt. Ein Fintech-Unternehmen, das einen KI-Agenten zur Vorprüfung von Kreditanträgen nutzt, ein Versicherer, der einen zur Prämienberechnung einsetzt, eine Bank, die einen zur Erkennung verdächtiger Transaktionen verwendet: alle fallen in den Anwendungsbereich.

Was die GRFA verlangt

Laut Analyse von Freshfields zu Art. 27 müssen Betreiber dokumentieren:

  • Eine Beschreibung der Prozesse, in denen das KI-System eingesetzt wird
  • Den Zeitraum und die Häufigkeit der Nutzung
  • Die Kategorien betroffener Personen und Gruppen
  • Die spezifischen Schadensrisiken für die identifizierten Kategorien
  • Eine Beschreibung der Maßnahmen zur menschlichen Aufsicht
  • Die Maßnahmen bei Risikoeintritt, einschließlich interner Governance und Beschwerdemechanismen

Die GRFA muss vor der ersten Nutzung des Hochrisiko-Systems abgeschlossen sein. Sie muss aktualisiert werden, wenn sich relevante Faktoren ändern. Die Ergebnisse müssen der zuständigen Marktüberwachungsbehörde gemeldet werden. Das AI Office wird eine Vorlage bereitstellen, aber auf diese Vorlage zu warten, ist keine Compliance-Strategie: Die Frist verschiebt sich nicht, nur weil die Vorlage spät kommt.

DSFA + GRFA: Eine Prüfung oder zwei?

Die KI-Verordnung erlaubt ausdrücklich, beide Prüfungen in einem einzigen Dokument zusammenzufassen. Erwägungsgrund 96 der KI-VO legt fest, dass die GRFA eine bereits durchgeführte DSFA ergänzen soll. Praktisch bedeutet das: Starten Sie mit Ihrer DSFA nach DSGVO, erweitern Sie diese dann um die grundrechtlichen Dimensionen, die die GRFA verlangt.

Das ist der einzig sinnvolle Ansatz. Zwei getrennte Prüfungen für dasselbe KI-System verdoppeln den Dokumentationsaufwand, ohne den Schutz zu verbessern. Die kombinierte Prüfung sollte Datenverarbeitungsrisiken (DSFA-Umfang) und breitere Grundrechtsauswirkungen (GRFA-Umfang) in einem einzigen strukturierten Dokument behandeln.

Weiterlesen: Schatten-KI-Agenten: Die Governance-Krise, die offen sichtbar ist

Kombinierte DSFA + GRFA für KI-Agenten: Ein praktischer Rahmen

Die meisten DSFA-Vorlagen wurden für klassische Datenverarbeitungen entwickelt: eine Datenbank, definierte Felder, vorhersehbare Datenflüsse. KI-Agenten sprengen dieses Modell. Ein Agent kann eine API aufrufen, die nicht ursprünglich konfiguriert war, Daten auf unvorhergesehene Weise verarbeiten oder Entscheidungen über mehrere Systeme hinweg in einem einzigen Durchlauf verketten. Ihre Prüfung muss dieses dynamische Verhalten abbilden.

Schritt 1: Datenflüsse und Entscheidungspfade des Agenten kartieren

Dokumentieren Sie jede Datenquelle, auf die der Agent zugreifen kann, jede externe API, die er aufrufen kann, und jede Aktion, die er ausführen kann. Identifizieren Sie für jede Entscheidung des Agenten: welche personenbezogenen Daten in diese Entscheidung einfließen, welche Personenkategorien betroffen sind und welche Folgen eine fehlerhafte Entscheidung hätte.

Bei KI-Agenten ist das schwieriger als bei klassischer Software. Das Verhalten eines Agenten variiert je nach Prompt, Modelllogik und verfügbaren Tools. Ihre Kartierung muss die gesamte Bandbreite möglicher Verhaltensweisen abdecken, nicht nur die beabsichtigten. Die IAPP-Analyse zu Agentic-AI-Compliance beschreibt genau dieses Problem: Wenn ein KI-Agent seinen Plan mitten im Lauf umschreibt und eine API aufruft, die nie in der DSFA erfasst wurde, kollabieren statische Kontrollen.

Schritt 2: Risiken gegen beide Regelwerke bewerten

Für die DSFA-Komponente: Bewerten Sie Risiken für Betroffene. Unberechtigter Zugriff, unzutreffendes Profiling, diskriminierende Ergebnisse, mangelnde Transparenz, Unmöglichkeit der Rechteausübung (Auskunft, Berichtigung, Löschung).

Für die GRFA-Komponente: Bewerten Sie breitere Grundrechtsauswirkungen. Droht der Betrieb des Agenten, geschützte Gruppen zu diskriminieren? Könnte er den Zugang zu wesentlichen Diensten einschränken? Beeinträchtigt er die Möglichkeit der Betroffenen, Rechtsbehelfe einzulegen?

Schritt 3: Minderungsmaßnahmen und menschliche Aufsicht definieren

Für jedes identifizierte Risiko müssen konkrete Minderungsmaßnahmen dokumentiert werden. “Wir werden das System überwachen” ist keine Maßnahme. “Ein menschlicher Prüfer genehmigt jede Agentenentscheidung, die zu einer Leistungsverweigerung führen würde, mit einer maximalen Reaktionszeit von 48 Stunden und einem Eskalationspfad für angefochtene Entscheidungen” ist eine Maßnahme.

Die KI-Verordnung verlangt substantielle menschliche Aufsicht für Hochrisiko-Systeme, nicht bloß einen Menschen irgendwo im Prozess, der Ergebnisse abnickt.

Schritt 4: Dokumentieren, melden und Überprüfungen planen

Legen Sie die kombinierte Prüfung beim Datenschutzbeauftragten ab. Für die GRFA-Komponente melden Sie die Ergebnisse an die Marktüberwachungsbehörde. Setzen Sie einen Überprüfungszyklus: mindestens jährlich, und bei jeder Änderung der Fähigkeiten, Datenquellen oder des Einsatzkontexts des Agenten.

Die Durchsetzungsrealität: Warum das jetzt zählt

Italiens Garante verhängte ein Bußgeld von 15 Millionen Euro gegen OpenAI wegen Verarbeitung personenbezogener Daten ohne Rechtsgrundlage oder ausreichende Transparenz. Spaniens AEPD belegte eine Universität mit 750.000 Euro Bußgeld für den Einsatz KI-gesteuerter Gesichtserkennung bei Prüfungen. Das sind reine DSGVO-Bußgelder unter dem aktuellen Regime. Nach dem 2. August 2026 drohen bei vergleichbaren Verstößen mit Hochrisiko-KI-Systemen Sanktionen aus beiden Regelwerken.

Die Rechnung ist einfach. Ein Unternehmen, das einen KI-Recruiting-Agenten ohne DSFA einsetzt, riskiert bis zu 20 Millionen Euro nach Art. 83 Abs. 4 DSGVO. Qualifiziert sich derselbe Agent als Hochrisiko nach Anhang III (was Recruiting-Tools unter Ziffer 4 tun), kommt der Betrieb ohne GRFA mit bis zu 15 Millionen Euro nach Art. 99 KI-VO hinzu. Der Betrieb eines Hochrisiko-Systems ohne Konformitätsbewertung: bis zu 35 Millionen Euro. Diese Bußgelder kumulieren. Sie verschmelzen nicht.

In Deutschland besteht ein zusätzliches Problem: Die nationale Aufsichtsbehörde für die KI-Verordnung steht Stand März 2026 noch nicht fest. Die Bundesnetzagentur ist Favoritin, aber bis zur formellen Benennung bleiben die Zuständigkeiten unklar. Diese Unklarheit bietet keinen Schutz. Sie bedeutet, dass sich bei Beginn der Durchsetzung ein Rückstau von Verstößen aus der Übergangsphase aufgestaut hat.

Unternehmen, die ihre Prüfungen jetzt abschließen, vor dem 2. August, haben eine dokumentierte Compliance-Position in gutem Glauben. Unternehmen, die abwarten, setzen darauf, dass ihre KI-Agenten während der am genauesten beobachteten Compliance-Frist seit Beginn der DSGVO-Durchsetzung keine Aufmerksamkeit auf sich ziehen.

Weiterlesen: KI-Agent-Datenschutz 2026: Warum klassische Governance versagt, wenn Agenten autonom handeln

Häufig gestellte Fragen

Ist eine DSFA für alle KI-Agenten nach DSGVO Pflicht?

Praktisch ja. Art. 35 DSGVO verlangt eine DSFA, wenn eine Verarbeitung voraussichtlich ein hohes Risiko für die Rechte und Freiheiten natürlicher Personen birgt. KI-Agenten, die personenbezogene Daten verarbeiten, erfüllen typischerweise mehrere Hochrisiko-Kriterien gleichzeitig: Profiling, automatisierte Entscheidungsfindung, innovative Technologienutzung und umfangreiche Verarbeitung. Die CNIL hat festgestellt, dass DSFAs bei Hochrisiko-KI-Systemen mit personenbezogenen Daten “grundsätzlich notwendig” sind.

Was ist der Unterschied zwischen einer DSFA und einer GRFA nach der KI-Verordnung?

Eine DSFA (Datenschutz-Folgenabschätzung) nach Art. 35 DSGVO bewertet Risiken für personenbezogene Daten und die Privatsphäre. Eine GRFA (Grundrechte-Folgenabschätzung) nach Art. 27 KI-VO bewertet breitere Auswirkungen auf Grundrechte wie Nichtdiskriminierung, Meinungsfreiheit, Menschenwürde und Verfahrensgerechtigkeit. Beide können in einem einzigen Prüfungsdokument zusammengefasst werden.

Können DSGVO- und KI-VO-Bußgelder für denselben KI-Agenten kumulieren?

Ja. Die KI-Verordnung ersetzt nicht die DSGVO. Ein einzelner KI-Agent kann gleichzeitig gegen beide Regelwerke verstoßen. DSGVO-Bußgelder reichen bis zu 20 Millionen Euro oder 4 % des weltweiten Jahresumsatzes. KI-VO-Bußgelder reichen bis zu 35 Millionen Euro oder 7 % des weltweiten Jahresumsatzes. Beide gelten unabhängig voneinander, was eine kombinierte theoretische Obergrenze von 55 Millionen Euro für ein einzelnes System ergibt.

Wer muss eine Grundrechte-Folgenabschätzung durchführen?

Nach Art. 27 KI-VO sind GRFAs für Betreiber verpflichtend, die öffentliche Stellen sind oder öffentliche Dienste erbringen, sowie für private Betreiber, die KI zur Bewertung der Kreditwürdigkeit, Ermittlung von Kredit-Scores oder Risikobewertung und Preisgestaltung bei Lebens- und Krankenversicherungen einsetzen. Die Prüfung muss vor der ersten Nutzung des Hochrisiko-KI-Systems abgeschlossen sein.

Bis wann müssen Unternehmen die Hochrisiko-Anforderungen der KI-VO erfüllen?

Bis zum 2. August 2026. Bis zu diesem Datum müssen Betreiber von Anhang-III-Hochrisiko-KI-Systemen Konformitätsbewertungen, technische Dokumentation, GRFA (sofern anwendbar) und EU-Datenbankregistrierung abgeschlossen haben. Da ordnungsgemäße Prüfungen 3 bis 6 Monate Vorbereitungszeit benötigen, sollten Organisationen sofort beginnen, wenn sie das noch nicht getan haben.