41 Prozent der Unternehmen haben bereits einen betrügerischen Bewerber eingestellt und ongeboardet. Das ist kein hypothetisches Risiko, sondern das Ergebnis einer GetReal-Security-Umfrage unter 668 IT-, Cybersecurity- und Fraud-Verantwortlichen vom September 2025. Experian stuft Deepfake-Bewerber als eine der fünf größten Betrugsbedrohungen für 2026 ein. Gartner prognostiziert, dass bis 2028 jedes vierte Bewerberprofil weltweit gefälscht sein wird.
Für deutsche Unternehmen verschärft sich die Lage zusätzlich: Seit August 2025 gelten KI-Systeme im Recruiting unter dem EU AI Act als Hochrisiko-Anwendungen. Die Bundesnetzagentur überwacht als zuständige Marktaufsichtsbehörde. Wer Betrug nicht erkennt, riskiert nicht nur finanzielle Schäden, sondern auch regulatorische Konsequenzen.
Das Ausmaß des Bewerbungsbetrugs 2026
GoodTimes Hiring Insights Report 2025, basierend auf einer Befragung von über 500 US-amerikanischen Talent-Acquisition-Führungskräften, identifiziert Betrug als die am meisten gefürchtete Recruiting-Herausforderung 2026. Damit hat Betrug den Fachkräftemangel als Top-Sorge abgelöst.
Die Zahlen sprechen eine deutliche Sprache:
- 90 % der US-Unternehmen haben ihre Einstellungsziele 2025 verfehlt, jedes dritte davon deutlich
- 60 % der Organisationen berichten von steigender Time-to-Hire trotz KI-Einsatz
- KI-gestützter Betrug stieg innerhalb eines Jahres um 1.210 % laut Deepstrike-Analyse
- 88 % der Organisationen begegnen Deepfake- oder Identitätstäuschungen mindestens gelegentlich
Eine Checkr-Umfrage unter 3.000 Hiring-Managern zeigt die Realität im Alltag: 59 % vermuten, dass Bewerber KI zur Selbstdarstellung missbrauchen. 31 % haben bereits jemanden mit gefälschter Identität interviewt. 62 % stimmen zu, dass Bewerber mittlerweile besser im Fälschen sind als HR-Teams im Erkennen.
Nordkorea als warnendes Beispiel
Das US-Justizministerium meldete im Juni 2025, dass nordkoreanische Agenten über 300 US-Unternehmen mit Deepfake-Filtern und gestohlenen Identitäten infiltriert hatten. Ermittler durchsuchten 29 Laptop-Farmen in 16 Bundesstaaten und beschlagnahmten 2,2 Millionen Dollar an Gehältern sowie 15 Millionen Dollar in Kryptowährung.
Pindrop, ein Audio-Sicherheitsunternehmen, analysierte 300 Bewerberprofile für eine einzige Engineering-Stelle. Mehr als ein Drittel war komplett erfunden. Ein Fake-Bewerber, “Ivan X,” hatte sich ausgerechnet auf eine Stelle im Deepfake-Erkennungsteam beworben. Seine IP-Adresse führte zu einem bekannten nordkoreanischen Indicator of Compromise.
Palo Alto Networks’ Unit 42 zeigte, dass ein überzeugender KI-generierter Fake-Bewerber in unter 70 Minuten erstellt werden kann. Mit einer fünf Jahre alten GPU. Keine staatlichen Ressourcen nötig.
Die vier Angriffsvektoren: Wie Bewerber betrügen
Der Betrug lässt sich in vier Kategorien einteilen, die jeweils unterschiedliche Erkennungsmethoden erfordern.
1. KI-generierte Lebensläufe und Bewerbungen
ResumeBuilder fand heraus, dass drei von vier Bewerbern, die ChatGPT für ihren Lebenslauf nutzten, ein Vorstellungsgespräch bekamen. SHRM schätzt, dass 40-80 % der Bewerber mittlerweile KI für Lebensläufe, Anschreiben und Interviewvorbereitung nutzen. 41 % der Bewerber verstecken unsichtbaren Text in ihren Unterlagen (weiße Schrift auf weißem Hintergrund), um ATS-Systeme auszutricksen.
Für DACH-Unternehmen ist relevant: Im Gegensatz zum US-Markt, wo Resume-Betrug längere Tradition hat, vertrauen viele deutsche Personalabteilungen noch stark auf das klassische Bewerbungsformat mit Foto, Zeugnissen und lückenlosem Lebenslauf. Genau diese Struktur lässt sich mit KI besonders überzeugend fälschen.
2. Deepfake-Videointerviews
Echtzeit-Gesichts- und Stimmklonung während Live-Videointerviews ist keine Zukunftsvision mehr. Standardtools können Deepfake-Overlays auf gängige Videokonferenzsysteme legen. Laut GetReal Security begegnen 88 % der Organisationen Deepfake- oder Identitätstäuschungen regelmäßig, 45 % bezeichnen sie als häufig.
In Deutschland betrug der Schaden durch KI-gestützten Betrug 2025 laut Allianz Trade 81 % mehr als im Vorjahr. Jede fünfte biometrische Identitätsprüfung könnte laut Branchenberichten bereits eine Fälschung sein.
3. KI-Cheating-Tools im Interview
Die am schnellsten wachsende Kategorie. Fabric analysierte 19.368 technische Interviews zwischen Juli 2025 und Januar 2026. 38,5 % lösten Cheating-Flags aus. Die Rate stieg von 9 % im Juli auf 45 % im September 2025.
Die Tools sind spezialisiert: Cluely, Interview Coder und Leetcode Wizard nutzen unsichtbare DirectX- oder Metal-Overlays, die nur auf dem lokalen Display des Bewerbers existieren. Bildschirmfreigabe-Software kann sie nicht erfassen. Sie leiten die Fragen des Interviewers an ein LLM weiter und zeigen die Antworten in Echtzeit an.
Fabrics Aufschlüsselung: Dedizierte KI-Assistenten (45 %), Sprach-LLMs wie ChatGPT Voice (34 %), Tab-Switching (18 %), menschliche Hilfe im Raum (3 %). Technische Rollen zeigen eine Cheating-Rate von 48 %, Vertriebsrollen 12 %.
Der gefährlichste Befund: 61,1 % der erkannten Cheater lagen über den Bestehensgrenzwerten und wären ohne spezialisierte Erkennung weitergekommen.
4. Synthetischer Identitätsbetrug
Komplette Erfindung einer Bewerberpersona: gefälschte LinkedIn-Profile, erfundene Berufserfahrung, KI-generierte Referenzschreiben, und manchmal Proxy-Personen für verschiedene Phasen des Einstellungsprozesses. Eine Person interviewt, eine andere bearbeitet den Skills-Test, eine dritte erscheint am ersten Arbeitstag. Huntress berichtete, dass 23,2 % der Bewerber in einem Dreimonatszeitraum als Betrugsrisiko eingestuft wurden.
Was tatsächlich gegen Betrug hilft
Die Erkennungslandschaft hat sich schnell weiterentwickelt. Diese Tools und Methoden zeigen nachweisbare Ergebnisse.
Spezialisierte Erkennungsplattformen
| Tool | Funktion | Ergebnis |
|---|---|---|
| Pindrop Pulse | Echtzeit-Deepfake-Erkennung in Videointerviews; Integration mit HireVue, Talview, BrightHire | Enttarnte das “Ivan X”-DPRK-Schema |
| Sherlock AI | Interview-Proctoring mit multimodalem ML (Blickverfolgung, Audioanalyse, Tipprhythmus) | 97 %+ Erkennungsgenauigkeit |
| Fabric | KI-Interviewer mit 20+ Verhaltens-Signalen und Zeitstempel-Beweisen | 85 % Cheating-Erkennungsrate |
| Persona | Kandidaten-Identitätsprüfung; Integration mit Ashby, Greenhouse, Workday | Identitätsbestätigung vor Tag 1 |
| iProov | Biometrische Workforce-Security | 1 Mio.+ tägliche Identitätsprüfungen |
Prozessänderungen, die wirken
Technologie allein reicht nicht. Google und McKinsey führten Mitte 2025 verpflichtende Vor-Ort-Interviews wieder ein. Laut Checkrs Umfrage haben 63 % der Unternehmen ihre Einstellungsprozesse im vergangenen Jahr speziell gegen KI- und Identitätsbetrug angepasst.
Der effektivste Ansatz kombiniert mehrere Ebenen:
- Identitätsprüfung bereits bei der Bewerbung, nicht erst beim Vertragsangebot, über Plattformen wie Persona oder Veriff
- Verhaltensanalyse während des Interviews: Latenzmetriken, Blickinkonsistenzen und Audio-Artefakte, die auf Deepfakes oder KI-Unterstützung hindeuten
- Skills-Prüfung, die KI-resistent ist: Pair-Programming-Sessions, Whiteboard-Aufgaben und Praxisübungen mit Live-Walkthrough
- Referenzprüfung jenseits von Telefonaten: Abgleich von LinkedIn-Historien mit Unternehmensverzeichnissen und öffentlichen Registern
Die Vertrauenskrise auf beiden Seiten
Eine Gartner-Umfrage unter 2.918 Bewerbern ergab: Nur 26 % vertrauen darauf, dass KI sie fair bewertet. Die Angebotsannahme-Rate sank von 74 % (Q2 2023) auf 51 % (Q2 2025). Die Betrugsspirale untergräbt das Vertrauen auf beiden Seiten.
Für deutsche Unternehmen kommt eine weitere Dimension hinzu: Seit Februar 2025 müssen Arbeitgeber laut EU AI Act nachweisen, dass Mitarbeitende, die KI-Systeme im Recruiting einsetzen, über ausreichende “KI-Kompetenz” verfügen. Ab August 2026 greifen die vollständigen Anforderungen an Hochrisiko-KI-Systeme im HR-Bereich. Fraud-Detection-Tools, die übermäßig viele False Positives produzieren oder diskriminierend wirken, sind unter der DSGVO und dem EU AI Act angreifbar.
Laut Bitkom nutzen erst 4 % der deutschen Unternehmen einen KI-Chatbot für Bewerbungen, 3 % setzen KI-basierte Kompetenzanalysen ein, und nur 1 % filtern Bewerbungen automatisiert. Das Bewusstsein für KI-gestützten Bewerbungsbetrug ist in der DACH-Region noch gering. Die Angreifer wissen das.
Häufig gestellte Fragen
Wie verbreitet ist KI-Bewerbungsbetrug im Recruiting?
41 % der Unternehmen haben bereits einen betrügerischen Bewerber eingestellt und ongeboardet (GetReal Security, 2025). Fabrics Analyse von 19.368 Interviews ergab, dass 38,5 % Cheating-Flags auslösten. Gartner prognostiziert, dass bis 2028 jedes vierte Bewerberprofil weltweit gefälscht sein wird.
Welche Tools nutzen betrügerische Bewerber im Vorstellungsgespräch?
Verbreitete Tools sind Cluely, Interview Coder und Leetcode Wizard, die unsichtbare Bildschirm-Overlays nutzen, um KI-generierte Antworten in Echtzeit einzublenden. Bewerber setzen außerdem ChatGPT und Gemini im Sprachmodus über Ohrhörer ein, verwenden Deepfake-Videofilter zur Identitätsfälschung und verstecken unsichtbaren Text in Lebensläufen, um ATS-Systeme auszutricksen.
Wie erkennen Unternehmen Deepfake-Bewerber in Videointerviews?
Spezialisierte Tools wie Pindrop Pulse, Sherlock AI und Fabric analysieren Videostreams auf Deepfake-Artefakte, Blickinkonsistenzen, Audioanomalien und Verhaltenssignale. Unternehmen wie Google und McKinsey haben zusätzlich verpflichtende Vor-Ort-Interviews wieder eingeführt. Identitätsprüfungsplattformen wie Persona und iProov bestätigen die Identität vor dem ersten Arbeitstag.
Welche Kosten verursacht die Einstellung eines betrügerischen Bewerbers?
Laut Checkrs Umfrage unter 3.000 Managern berichten 23 % von Verlusten über 50.000 Dollar durch Einstellungs- oder Identitätsbetrug, 10 % von Verlusten über 100.000 Dollar. Nordkoreanische Betrugsringe erbeuteten 2,2 Millionen Dollar an Gehältern und 15 Millionen Dollar in Kryptowährung von infiltrierten Unternehmen.
Welche Auswirkungen hat der EU AI Act auf die Betrugserkennung im Recruiting?
Seit August 2025 gelten KI-Systeme im Recruiting als Hochrisiko-Anwendungen unter dem EU AI Act. Unternehmen müssen KI-Kompetenz der Nutzenden nachweisen und ab August 2026 vollständige Compliance sicherstellen. Fraud-Detection-Tools, die diskriminierend wirken oder übermäßig viele False Positives produzieren, sind unter DSGVO und EU AI Act angreifbar.
