Obwohl Deepf­akes schon lan­ge theo­re­tisch mög­lich sind, kön­nen Fäl­schun­gen erst mit den Metho­den aus dem Bereich der Künst­li­chen Intel­li­genz mit rela­tiv wenig Auf­wand und Exper­ti­se in einer hohen Qua­li­tät erstellt wer­den. Durch den Ein­satz von Iden­ti­ty Gra­phen kann das Betrugs­ri­si­ko durch Deepf­akes mini­miert werden. 

Für Men­schen und Betrugs­er­ken­nungs­soft­ware wird es immer schwie­ri­ger, zwi­schen ech­ten Video- oder Audio­auf­nah­men und Deepf­akes zu unter­schei­den, was die­se Tech­no­lo­gie zu einem beson­ders bös­ar­ti­gen Betrugs­vek­tor macht.

Zwar kön­nen mit den der­zei­ti­gen Metho­den der Betrugs­er­ken­nung die digi­ta­len Iden­ti­tä­ten nicht zu 100 % veri­fi­ziert wer­den; die Unter­neh­men kön­nen sich gegen Deepf­ake-Betrug jedoch schüt­zen und die Aus­wir­kun­gen zukünf­ti­ger iden­ti­täts­ba­sier­ter Angrif­fe mit einem hohen Grad an Effek­ti­vi­tät mini­mie­ren, so Mike Cook, VP of Fraud Solu­ti­ons, Com­mer­cia­liza­ti­on bei Socu­re[1]Deepf­akes aren’t going away: Future-pro­ofing digi­tal iden­ti­ty

Zusätz­lich zur Vali­die­rung der per­so­nen­be­zo­ge­nen Daten im Onboar­ding-Pro­zess müss­ten die Unter­neh­men die Iden­ti­tät durch mul­ti­di­men­sio­na­le Tie­fen-Akti­vi­täts-Tests über­prü­fen, die durch die Ana­ly­se der Qua­li­tät von Sel­fies und die Schät…