Von Ralf Keuper

Ver­fah­ren, um media­le Iden­ti­tä­ten (Video/​ Bild, Audio und Text) zu mani­pu­lie­ren, exis­tie­ren seit vie­len Jah­ren. Durch Metho­den aus dem Bereich der Künst­li­chen Intel­li­genz kön­nen Fäl­schun­gen inzwi­schen mit rela­tiv wenig Auf­wand und Exper­ti­se in einer hohen Qua­li­tät erstellt wer­den. Da hier­bei sog. tie­fe neu­ro­na­len Net­ze (eng­lisch: deep neu­ral net­works) zum Ein­satz kom­men, wer­den die ent­spre­chen­den Ver­fah­ren umgangs­sprach­lich als „Deepf­akes“ bezeich­net[1]Deepf­akes – Gefah­ren und Gegen­maß­nah­men.

Mitt­ler­wei­le hat, wie Euro­pol berich­tet, die Ver­wen­dung von Deepf­akes unter Kri­mi­nel­len eine neue Dimen­si­on erreicht[2]Euro­pol: Deepf­akes wer­den bei Kri­mi­nel­len ein immer belieb­te­res Werk­zeug. Beliebt ist vor allem die sog. Chef-Masche. Dabei geben sich Kri­mi­nel­le per Mail oder per Anruf gegen­über arg­lo­sen Mit­ar­bei­tern als hoch­ran­gi­ge Füh­rungs­kraft aus. Von den Mit­ar­bei­tern for­dern sie dann, hohe Über­wei­sun­gen vom Geschäfts­kon­to zu ver­an­las­sen[3]“Chef-Masche”: BSI warnt Unter­neh­men vor aku­ter Gefahr.

Die Alli­anz berich­te­te im Jahr 2019 von dem ers­ten Scha­dens­fall durch Stim­mi­mi­ta­ti­on. Dabei kam “eine Stim­mi­mi­ta­ti­ons-Soft­ware zum Ein­satz. Die­se Soft­ware basiert auf „Machi­ne Lear­ning“: Mit­hil­fe eines selbst­ler­nen­den Algo­rith­mus‘ kann sie inner­halb von eini­gen Minu­ten die Sti…