Getting your Trinity Audio player ready...

Gart­ner pro­gnos­ti­ziert, dass bis 2026 Angrif­fe mit KI-gene­rier­ten Deepf­akes auf bio­me­tri­sche Gesichts­da­ten dazu füh­ren wer­den, dass 30 % der Unter­neh­men sol­che Iden­ti­täts­über­prü­fungs- und Authen­ti­fi­zie­rungs­lö­sun­gen nicht mehr für zuver­läs­sig hal­ten wer­den. Jüngs­te Unter­su­chun­gen von Ivan­ti zei­gen außer­dem, dass mehr als die Hälf­te der Büro­an­ge­stell­ten (54 %) nicht wis­sen, dass fort­schritt­li­che KI die Stim­me einer Per­son imi­tie­ren kann.

Auf­grund der stei­gen­den Bedro­hung hat das Minis­te­ri­um für Inne­re Sicher­heit der USA einen Leit­fa­den mit dem Titel Incre­asing Thre­ats of Deepf­ake Iden­ti­ties herausgegeben.

Dort heisst es:

Wis­sen­schaft und Tech­no­lo­gie ent­wi­ckeln sich stän­dig wei­ter. Deepf­akes und auto­ma­ti­sier­te Tech­ni­ken zur Erstel­lung und Ver­än­de­rung von Inhal­ten sind ledig­lich die neu­es­ten Mecha­nis­men, die zur Ver­än­de­rung oder Erstel­lung von Bild‑, Audio- und Text­in­hal­ten ent­wi­ckelt wur­den. Der ent­schei­den­de Unter­schied ist jedoch die Leich­tig­keit, mit der sie gemacht wer­den kön­nen – und zwar gut. In der Ver­gan­gen­heit konn­ten gele­gent­li­che Betrach­ter (oder Zuhö­rer) betrü­ge­ri­sche Inhal­te leicht erken­nen. Dies ist nun nicht mehr immer der Fall und kann es jedem Geg­ner, der Fehl­in­for­ma­tio­nen oder Des­in­for­ma­tio­nen ver­brei­ten möch­te, ermög­li­chen, weit­aus rea­lis­ti­sche­re Bild‑, Video‑, Audio- und Text­in­hal­te in sei­nen Kam­pa­gnen ein­zu­set­zen als je zuvor.

Was liegt da näher, als Gefah­ren der KI mit den Mit­teln der KI zu begegnen?

So ent­hält das neue Modell von Ope­nAI, ChatGPT 4.0, ein auto­re­gres­si­ves Omni­mo­dell, das als Ein­ga­be eine belie­bi­ge Kom­bi­na­ti­on von Text, Audio, Bild und Video akzep­tiert. Dem Modell ist nur die Ver­wen­dung bestimm­ter vor­ge­wähl­ter Stim­men und eines Aus­ga­be­klas­si­fi­ka­tors erlaubt, um zu erken­nen, wenn das Modell davon abweicht.

In der fol­gen­den Tabel­le von Ven­tur­eBeat Ana­ly­sis wird erläu­tert, wie die Funk­tio­nen des GPT-4o dabei hel­fen, Audio- und Video-Deefakes zu erken­nen und zu stop­pen[1]GPT-4o: OpenAI’s shield against $40B deepf­ake thre­at to enter­pri­ses.

Nach wel­chen Metho­den GPT 4.0 vor­geht wird wei­ter­hin in GPT-4o Sys­tem Card be…