Ein KI-Agent lehnt gerade einen Kreditantrag ab, stuft einen Mitarbeiter als leistungsschwach ein und priorisiert ein Support-Ticket herunter, weil der Kunde wenig Umsatz bringt. Drei Entscheidungen, drei betroffene Personen, null menschliche Beteiligung. Nach Art. 22 DSGVO ist jede einzelne dieser Entscheidungen potenziell rechtswidrig.

Das ist kein Zukunftsszenario. Es passiert jetzt, in Produktivsystemen, in tausenden Unternehmen. Der EDPB hat für 2026 eine koordinierte Durchsetzungsaktion zu Transparenzpflichten angekündigt. Die Datenschutzbehörden rüsten auf. Und zwischen der DSGVO (seit 2018 in Kraft) und der KI-Verordnung (Hochrisiko-Bestimmungen ab 2. August 2026 durchsetzbar) stehen Unternehmen vor einer doppelten Compliance-Last, auf die die wenigsten vorbereitet sind.

Weiterlesen: EU AI Act 2026: Was Unternehmen bis August umsetzen müssen

Art. 22 DSGVO: Die Vorschrift, die KI-Teams übersehen

Art. 22 Abs. 1 DSGVO gibt jeder betroffenen Person das Recht, “nicht einer ausschließlich auf einer automatisierten Verarbeitung, einschließlich Profiling, beruhenden Entscheidung unterworfen zu werden, die ihr gegenüber rechtliche Wirkung entfaltet oder sie in ähnlicher Weise erheblich beeinträchtigt.”

Dieser Satz stammt aus 2016, bevor KI-Agenten als Produktkategorie existierten. Aber er trifft sie mit chirurgischer Präzision.

Was als “Entscheidung” nach Art. 22 gilt

Die Schwelle ist niedriger, als die meisten Entwicklerteams annehmen. “Entscheidungen mit rechtlicher Wirkung” umfassen offensichtliche Fälle wie Kreditablehnungen, Bewerbungsabsagen oder Versicherungskündigungen. Aber “in ähnlicher Weise erheblich beeinträchtigt” geht weiter. Die Leitlinien der Art.-29-Datenschutzgruppe (vom EDPB übernommen) nennen Beispiele:

  • Automatische Ablehnung eines Online-Kreditantrags
  • Unterschiedliche Preise oder Servicequalität auf Basis von Profiling
  • E-Recruiting ohne menschliches Eingreifen
  • Automatisierte Entscheidungen über Sozialleistungen, Visumanträge oder Steuerbescheide

Wenn Ihr KI-Agent Support-Tickets sortiert und bestimmte Kundensegmente systematisch benachteiligt, kann das unter Art. 22 fallen. Wenn er Mitarbeiterleistungen bewertet und diese Bewertungen in Beförderungs- oder Kündigungsentscheidungen einfließen, fällt es fast sicher darunter.

Die drei Ausnahmen (und warum sie eng sind)

Art. 22 ist kein absolutes Verbot. Er lässt rein automatisierte Entscheidungen in drei Fällen zu:

  1. Vertragserforderlichkeit: Die Entscheidung ist für den Abschluss oder die Erfüllung eines Vertrags erforderlich. Beispiel: ein Versicherungsagent, der Niedrigrisko-Policen auf Basis der Angaben automatisch genehmigt. Aber “erforderlich” wird streng ausgelegt. Wenn ein Mensch die Entscheidung ohne wesentliche Verzögerung treffen könnte, greift die Ausnahme möglicherweise nicht.

  2. Gesetzliche Grundlage: Das Unions- oder Mitgliedstaatsrecht erlaubt es ausdrücklich. § 37 BDSG lässt automatisierte Entscheidungen bei bestimmten Versicherungs- und Kreditscoring-Szenarien zu, allerdings nur mit Schutzmaßnahmen.

  3. Ausdrückliche Einwilligung: Die betroffene Person hat ausdrücklich eingewilligt. Das bedeutet informierte, spezifische, freiwillige Einwilligung, nicht ein verstecktes Häkchen in den AGB.

Auch wenn eine Ausnahme greift, verlangt Art. 22 Abs. 3 “angemessene Maßnahmen zur Wahrung der Rechte und Freiheiten sowie der berechtigten Interessen der betroffenen Person, mindestens das Recht auf Eingreifen einer Person seitens des Verantwortlichen, auf Darlegung des eigenen Standpunkts und auf Anfechtung der Entscheidung.”

Konkret: Jeder KI-Agent, der Entscheidungen über Menschen trifft, braucht einen menschlichen Eskalationspfad. Ohne Ausnahme.

Weiterlesen: Was sind KI-Agenten? Ein praktischer Leitfaden für Entscheider

DSGVO und KI-Verordnung: Doppelte Compliance

Die KI-Verordnung (EU AI Act) ersetzt die DSGVO nicht. Sie kommt dazu. Wenn Ihr KI-Agent personenbezogene Daten verarbeitet und unter eine Hochrisikokategorie nach Anhang III der KI-Verordnung fällt, müssen Sie beide Regelwerke gleichzeitig einhalten.

Die Gemeinsame Stellungnahme 1/2026 von EDPB und EDPS zum Digital Omnibus AI macht das deutlich. Die Stellungnahme warnt davor, dass “administrative Vereinfachung” nicht “den Schutz der Grundrechte senken” darf. Konkret bemängelte der EDPB:

  • Die vorgeschlagene Ausweitung der Verarbeitung besonderer Datenkategorien (Gesundheitsdaten, ethnische Herkunft) zur Bias-Erkennung ohne ausreichende Schutzmaßnahmen
  • Die Streichung der Registrierungspflicht für KI-Systeme, die Anbieter selbst als “nicht-hochriskant” einstufen
  • Die Verschiebung von Durchsetzungsfristen für Hochrisikosysteme

Wo sich die beiden Regelwerke überschneiden

AnforderungDSGVOKI-Verordnung
Rechtsgrundlage für VerarbeitungArt. 6 (Einwilligung, Vertrag, berechtigtes Interesse etc.)Keine eigene Anforderung, setzt rechtmäßige Verarbeitung voraus
Automatisierte EntscheidungenArt. 22 beschränkt, Recht auf menschliches EingreifenArt. 14 verlangt menschliche Aufsicht bei Hochrisikosystemen
TransparenzArt. 13-14 (Information der Betroffenen)Art. 13 (technische Dokumentation und Nutzerinformation)
FolgenabschätzungArt. 35 DSFA bei risikoreicher VerarbeitungArt. 9 Risikomanagementsystem für Hochrisiko-KI
DatenqualitätArt. 5 Abs. 1 lit. d (Richtigkeitsgrundsatz)Art. 10 (Data Governance für Trainings-/Testdaten)
DrittlandtransferKapitel V (Angemessenheitsbeschlüsse, SCC, BCR)Keine eigenen Transferregeln, verweist auf DSGVO

Das praktische Problem: Ihre DSFA nach Art. 35 DSGVO und Ihr Risikomanagementsystem nach Art. 9 KI-VO decken überlappende, aber nicht identische Bereiche ab. Die meisten Unternehmen müssen beide Prozesse durchlaufen, wobei der EDPB empfiehlt, sie wo möglich zu integrieren.

DSFA für KI-Agenten: Was die Aufsichtsbehörden erwarten

Art. 35 DSGVO schreibt eine Datenschutz-Folgenabschätzung vor, wenn die Verarbeitung “voraussichtlich ein hohes Risiko für die Rechte und Freiheiten natürlicher Personen zur Folge” hat. KI-Agenten, die Entscheidungen über Menschen treffen, lösen diese Pflicht praktisch automatisch aus.

Die Leitlinien des LfDI Baden-Württemberg betonen, dass DSFAs für KI-Systeme speziell die Intransparenz von Modellentscheidungen und das Potenzial für diskriminierende Ergebnisse adressieren müssen.

Was eine DSFA für KI-Agenten enthalten muss

Eine DSFA ist keine Checkbox-Übung. Nach Art. 35 Abs. 7 muss sie mindestens enthalten:

  1. Systematische Beschreibung der Verarbeitung: Welche Daten greift der Agent ab? Welche Entscheidungen trifft er? Welches Modell steckt dahinter? Wohin werden die Daten gesendet? Wenn Sie einen externen LLM-Anbieter nutzen (OpenAI, Anthropic, Google), gehört der Datenfluss zu deren Servern zur Verarbeitungsbeschreibung.

  2. Bewertung der Notwendigkeit und Verhältnismäßigkeit: Warum braucht der Agent diese Daten? Könnte dasselbe Ergebnis mit weniger Daten oder weniger Automatisierung erreicht werden? Hier trifft “wir wollen alles automatisieren” auf “Sie müssen begründen, warum.”

  3. Bewertung der Risiken für Betroffene: Was passiert bei einer Fehlentscheidung? Was bei einem Datenleck? Was bei systematischer Benachteiligung einer geschützten Gruppe? Wahrscheinlichkeit und Schwere quantifizieren.

  4. Maßnahmen zur Risikominderung: Human-in-the-Loop-Checkpoints, Datenminimierung, Zugriffskontrollen, Bias-Tests, Modellmonitoring, Incident-Response-Verfahren.

Nach Angaben von Proliance unterschätzen gerade KMU den Aufwand für DSFAs bei KI-Agenten erheblich, weil sie die Verarbeitungstiefe der Systeme nicht vollständig erfassen.

Weiterlesen: KI im Recruiting: Was ist nach dem EU AI Act erlaubt?

Drittlandtransfer: Das LLM-Anbieter-Problem

Die meisten KI-Agenten laufen auf LLMs von US-Unternehmen. Wenn Ihr Agent eine Kundenbeschwerde, eine Personalakte oder einen Kreditantrag an die API von OpenAI sendet, überqueren personenbezogene Daten den Atlantik. Kapitel V der DSGVO regelt diese Transfers, und die Regeln sind streng.

Der aktuelle Transferrahmen

Das EU-US Data Privacy Framework (DPF), angenommen im Juli 2023, erlaubt Transfers an US-Unternehmen, die sich unter dem Framework zertifizieren. OpenAI, Google, Microsoft und Anthropic sind alle zertifiziert.

Aber das DPF ist kein Freibrief. Die Stellungnahme des EDPB zum Angemessenheitsbeschluss hat verbleibende Bedenken bezüglich US-Überwachungspraktiken geäußert, und juristische Anfechtungen werden erwartet. Wenn das DPF kippt (wie es beim Privacy Shield im Schrems-II-Urteil geschah), müssten sämtliche KI-Agent-Deployments, die auf US-LLMs basieren, über Nacht alternative Transfermechanismen vorweisen.

Praktische Schritte

Datenflüsse inventarisieren. Für jeden KI-Agenten dokumentieren: welche personenbezogenen Daten er an externe Dienste sendet, welcher Anbieter sie verarbeitet, wo die Verarbeitung stattfindet, und unter welchem Transfermechanismus.

Nicht ausschließlich auf das DPF verlassen. Standardvertragsklauseln (SCC) als Backup nutzen. Die meisten großen LLM-Anbieter bieten sie bereits in ihren Auftragsverarbeitungsverträgen an.

Europäische Alternativen prüfen. Aleph Alpha (deutsch), Mistral (französisch) und diverse europäische Cloud-Anbieter bieten LLM-Hosting innerhalb der EU-Grenzen an. Für Agenten, die sensible personenbezogene Daten verarbeiten (Gesundheit, Finanzen, HR), eliminiert die Verarbeitung in der EU das Transferrisiko komplett.

Anonymisieren vor dem Senden. Wo möglich, personenbezogene Daten vor der Übermittlung an das LLM entfernen. Wenn ein Agent eine Kundenbeschwerde zusammenfassen soll, braucht das LLM in den meisten Fällen weder Name noch Adresse noch Kontonummer.

Der Betriebsrat: Mitbestimmung bei KI-Agenten

Unternehmen in Deutschland stehen vor einer zusätzlichen Compliance-Ebene, die kein anderes EU-Land kennt: die Mitbestimmung des Betriebsrats.

Nach § 87 Abs. 1 Nr. 6 BetrVG hat der Betriebsrat ein Mitbestimmungsrecht bei der “Einführung und Anwendung von technischen Einrichtungen, die dazu bestimmt sind, das Verhalten oder die Leistung der Arbeitnehmer zu überwachen.” KI-Agenten, die Mitarbeiterdaten verarbeiten, ob für Leistungsbeurteilungen, Schichtplanung, Aufgabenverteilung oder interne Kommunikationsanalyse, fallen unmittelbar unter diese Vorschrift.

Das Bundesarbeitsgericht legt “Überwachung” weit aus. Selbst wenn die Hauptfunktion des KI-Agenten nicht die Überwachung ist: Kann er technisch dazu genutzt werden, Mitarbeiterverhalten zu beobachten (und das können die meisten Agenten, die Mitarbeiterdaten verarbeiten), muss der Betriebsrat beteiligt werden.

Was das konkret bedeutet

  • Kein Deployment eines KI-Agenten mit Mitarbeiterdaten ohne Betriebsvereinbarung
  • Der Betriebsrat kann Einblick in die Logik des Agenten, die verarbeiteten Daten und die getroffenen Entscheidungen verlangen
  • Verstöße gegen das Mitbestimmungsrecht können das gesamte Deployment rechtswidrig machen, unabhängig von der DSGVO-Konformität
  • Die Betriebsvereinbarung muss typischerweise regeln: Zweckbindung, Datenkategorien, Aufbewahrungsfristen, menschliche Aufsichtsverfahren und Rechte der Beschäftigten auf Anfechtung von Entscheidungen

Deutsche Unternehmen haben das auf die harte Tour gelernt. Forrester prognostiziert, dass spezialisierte KI-Governance-Funktionen bis Ende 2026 in deutschen Unternehmen zum Standard werden, teilweise getrieben durch die Forderungen der Betriebsräte nach strukturierter Aufsicht.

Weiterlesen: KI-Agent-Identität: Warum Agenten eigenes IAM brauchen

Praxis-Checkliste für KI-Agent-Deployments

So sieht ein rechtlich belastbares KI-Agent-Deployment unter dem aktuellen DSGVO-Rahmen aus:

Vor dem Deployment:

  • Rechtsgrundlage für jede Art der Verarbeitung personenbezogener Daten identifizieren (Art. 6)
  • DSFA durchführen (Art. 35) für jeden Agenten, der Entscheidungen über Menschen trifft
  • Human-in-the-Loop für Entscheidungen mit rechtlicher oder erheblicher Wirkung implementieren (Art. 22)
  • Alle Drittlandtransfers kartieren und angemessene Garantien sicherstellen (Kapitel V)
  • Betriebsvereinbarung einholen für mitarbeiterbezogene Agenten (§ 87 BetrVG)
  • Entscheidungslogik des Agenten für Transparenzpflichten dokumentieren (Art. 13-14)

Während des Betriebs:

  • Alle Entscheidungen mit Personenbezug protokollieren, einschließlich Dateneingaben und Ergebnis
  • Betroffenen einen klaren Weg bieten, menschliche Überprüfung automatisierter Entscheidungen zu verlangen
  • Bias und diskriminierende Muster in Agent-Outputs überwachen
  • DSFA bei jeder Änderung von Modell, Datenquellen oder Einsatzbereich aktualisieren
  • Auskunftsersuchen (Art. 15), die vom Agenten verarbeitete Daten betreffen, innerhalb von 30 Tagen beantworten

Incident Response:

  • Bei einem Datenleck durch den Agenten haben Sie 72 Stunden, um die Aufsichtsbehörde zu benachrichtigen (Art. 33)
  • Systematisch verzerrte Entscheidungen, die eine Gruppe betreffen, können eine meldepflichtige Datenschutzverletzung darstellen
  • Alles dokumentieren. Die Aufsichtsbehörden werden Nachweise verlangen.

Die DSGVO-Bußgelder erreichten 2,3 Milliarden Euro allein im Jahr 2025, ein Anstieg von 38 % gegenüber dem Vorjahr. Insgesamt wurden seit 2018 über 6,2 Milliarden Euro verhängt. Der Trend ist eindeutig, und KI-Systeme rücken zunehmend ins Visier.

Häufig gestellte Fragen

Gilt Art. 22 DSGVO für KI-Agenten?

Ja. Art. 22 DSGVO gilt für jede automatisierte Verarbeitung, die rechtliche Wirkung entfaltet oder eine Person in ähnlicher Weise erheblich beeinträchtigt. KI-Agenten, die Entscheidungen über Menschen treffen, etwa bei Kreditprüfungen, Bewerbungsscreenings oder Risikobewertungen, fallen direkt unter diese Vorschrift. Der Agent muss entweder eine gültige Rechtsgrundlage für die automatisierte Entscheidung haben oder eine sinnvolle menschliche Aufsicht beinhalten.

Brauche ich für jeden KI-Agenten eine DSFA?

Nicht für jeden Agenten, aber für jeden Agenten, der personenbezogene Daten verarbeitet und Entscheidungen über Personen trifft. Art. 35 DSGVO verlangt eine DSFA, wenn die Verarbeitung voraussichtlich ein hohes Risiko für Betroffene mit sich bringt. KI-Agenten, die Profiling, automatisierte Entscheidungsfindung oder die Verarbeitung sensibler Daten durchführen, erfüllen diese Schwelle fast immer.

Darf ich US-LLMs wie OpenAI oder Anthropic unter der DSGVO nutzen?

Derzeit ja, auf Basis des EU-US Data Privacy Framework von Juli 2023. Sowohl OpenAI als auch Anthropic sind DPF-zertifiziert. Allerdings könnte das Framework ähnlich wie beim Schrems-II-Urteil juristisch angefochten werden. Unternehmen sollten Standardvertragsklauseln als Backup nutzen und europäische LLM-Alternativen für sensible Daten in Betracht ziehen.

Wie überschneiden sich DSGVO und KI-Verordnung bei KI-Agenten?

Die KI-Verordnung ersetzt die DSGVO nicht. Wenn Ihr KI-Agent personenbezogene Daten verarbeitet und als Hochrisikosystem eingestuft wird, müssen Sie beide Regelwerke einhalten. Das bedeutet: sowohl eine DSGVO-DSFA als auch ein KI-VO-Risikomanagementsystem durchführen, Transparenzanforderungen beider Regelwerke erfüllen und menschliche Aufsicht nach Art. 22 DSGVO und Art. 14 KI-VO sicherstellen.

Hat der Betriebsrat ein Mitspracherecht bei KI-Agent-Deployments?

Ja. Nach § 87 Abs. 1 Nr. 6 BetrVG hat der Betriebsrat ein Mitbestimmungsrecht bei technischen Einrichtungen, die das Verhalten oder die Leistung der Arbeitnehmer überwachen können. KI-Agenten, die Mitarbeiterdaten verarbeiten, benötigen vor dem Deployment eine Betriebsvereinbarung. Der Betriebsrat kann Einblick in die Logik und die Entscheidungskriterien des Agenten verlangen.

Source