01 | Schaut euch Erika an

Die Beleuchtung stimmt. Die Finger halten das Plastik natürlich. Das Hologramm reflektiert perfekt ins Objektiv. Jeder klassische Selfie-Prozess würde hier einen grünen Haken setzen.

Das Problem: Erika existiert nicht. Dieser Ausweis wurde nie gedruckt. Das Bild oben hat mich gerade mal einen simplen Prompt und fünf Sekunden Zeit gekostet.

02 | „Deshalb machen wir Video-Ident"

Diejenigen, die jetzt denken: Deshalb machen wir ja Video-Ident — überlegt nochmal. Gebt mir eine halbe Stunde Vorbereitungszeit und ich jage euch ein realistisches Deepfake-Video durch den Prozess.

Dann nickt Erika, blinzelt, liest mit täuschend echter Stimme ihre fiktive Ausweisnummer vor und kippt die Karte genau so, dass das Hologramm in der Kamera tanzt. Face-Swap-Injection in den Videostream, Voice-Swap mit beliebigem Text. Die Technik ist seit 2024 dokumentiert und seit Anfang 2026 als kommerzielles Angebot verfügbar.[1]

03 | Compliance-Theater, kein Sicherheitsverfahren

Dass wir 2026 immer noch Banken, Krypto-Börsen und Versicherungen sehen, die ernsthaft das „Halten Sie Ihren Ausweis in die Kamera"-Ritual als Sicherheitsmaßnahme verkaufen, ist absurd.

Generative KI pulverisiert euren Visual Proof. Frei verfügbare KI simuliert heute Kanten, Lichtbrechungen und Mimik flüssiger und fehlerfreier, als Liveness-Detection sie jemals prüfen kann. iProov dokumentiert für 2023 einen Anstieg der Face-Swap-Injection-Angriffe um 704 Prozent in der zweiten Jahreshälfte gegenüber der ersten.[2] UNODC dokumentiert für 2022–2023 einen Anstieg deepfake-basierter Straftaten im Asien-Pazifik-Raum um 1.530 Prozent.[3]

Wer heute noch Pixel abgleicht, betreibt reines Compliance-Theater und hält Betrügern die Tür auf.

04 | „Aber an Detail X sieht man doch …"

An die Spezialisten, die mir mit Argumenten kommen wollen wie Aber man sieht doch auf dem Ausweis an Detail X und Y, dass …: Spart euch die Mühe.

Das ist volle Absicht. Die kleinen Fehler im Bild sind bewusst eingebaut, damit hier niemand anfängt, von Urkundenfälschung zu philosophieren. Wenn ich wollte (und rechtlich dürfte), wäre das Bild makellos. Die Technik dafür ist längst da.

05 | Die offene Frage

Wo würde Erika heute noch durchs Onboarding kommen? Bei welchem Anbieter, in welcher Branche, in welchem KYC-Setup? Diese Frage stellt sich nicht in fünf Jahren. Sie stellt sich an jedem Werktag, an dem irgendwo ein neues Konto eröffnet wird.

Die technische Antwort kennen wir längst: Verifikation, die nicht auf dem reinen Bildabgleich beruht. Multi-Channel-Verifikation. Behavioral Biometrics. Phygitale Verfahren mit echtem Hardware-Anker. Das alles existiert. Was fehlt, ist die Bereitschaft, das Theater zu beenden.

Quellenverzeichnis

[1] UNODC: Emerging threats in Southeast Asia — Exploitation of AI and automation in the regional cybercrime landscape. Beschreibt das kommerzielle Angebot integrierter Audio-Deepfakes („voice swap") über regionale Anbieter, September 2025. unodc.org

[2] iProov Threat Intelligence Report 2024. Anstieg der Face-Swap-Injection-Attacken um 704 % in H2 2023 vs. H1 2023. Daten zitiert in zahlreichen Branchenanalysen.

[3] UNODC: Transnational Organized Crime and the Convergence of Cyber-Enabled Fraud, Underground Banking and Technological Innovation in Southeast Asia, 2024. Anstieg deepfake-basierter Straftaten in der Asien-Pazifik-Region 2022–2023. unodc.org