Getting your Trinity Audio player ready...

Stel­len Sie sich vor, ein Com­pu­ter ana­ly­siert Ihr Gesicht und/​oder ihre Stim­me wäh­rend eines Bera­tungs­ge­sprächs und ent­schei­det dar­über, ob und an wel­che Stel­le in der Bank ihr Anlie­gen wei­ter­ge­lei­tet wird. So abwe­gig ist die­ses Sze­na­rio nicht.

So gab es bei der Spar­kas­se Bre­men Über­le­gun­gen, den in Zusam­men­ar­beit mit S‑Markt & Mehr­wert ent­wi­ckel­ten Voice Bot um eine  Emo­ti­ons­er­ken­nungs­funk­ti­on für den Ein­satz in Kun­den-Ser­vice-Cen­tern zu erwei­tern. Mit der Emo­ti­ons­er­ken­nung soll­ten Not­la­gen von Kun­den bes­ser erkannt wer­den, um bei­spiels­wei­se bei Kar­ten­dieb­stahl schnell eine Wei­ter­lei­tung zum Sperr-Not­ruf ver­an­las­sen zu kön­nen.[1]Neu­es Sprach­dia­log­sys­tem: Voice Bot ent­las­tet Bera­ter und Ser­vice-Cen­ter[2]Voice Bot soll Bera­ter und Ser­vice-Cen­ter bei Spar­kas­sen ent­las­ten.

Die Buda­pest Bank in Ungarn setz­te auf auto­ma­ti­sier­te Emo­ti­ons­er­ken­nung in ihrer Kun­den­hot­line, wobei eine KI auf­ge­zeich­ne­te Tele­fo­na­te nach Schlüs­sel­wör­tern und Ton­la­ge ana­ly­sier­te, um die Kun­den­zu­frie­den­heit zu ermit­teln. Aller­dings führ­te die­ser Ein­satz zu recht­li­chen Pro­ble­men: Die unga­ri­sche Daten­schutz­be­hör­de ver­häng­te eine Geld­stra­fe von etwa 650.000 Euro, da die Bank gegen die Daten­schutz­grund­ver­ord­nung ver­stieß. Die Kun­den waren nicht über die Ana­ly­se infor­miert und hat­ten kei­ne Mög­lich­keit, ihr Ein­ver­ständ­nis zu geben oder zu wider­ru­fen[3]Emo­ti­ons­ana­ly­se:
Unga­ri­sche Bank muss def­ti­ge Stra­fe zah­len
.

Laut dem EU AI Act sind bestimm­te Anwen­dun­gen wie Social Scoring oder Emo­ti­ons­er­ken­nung am Arbeits­platz ver­bo­ten[4]Scoring und Daten­schutz: Neue Gren­zen für Algo­rith­men[5]Wel­che Kon­se­quen­zen erge­ben sich aus dem AI Act?[6]EU Kom­mis­si­on: Künst­li­che Intel­li­genz – Fra­gen und Ant­wor­ten.

Was sagen die For­schung und Stim­men aus der Zivil­ge­sell­schaft zum The­ma auto­ma­ti­sier­te Emotionserkennung?

Eine bahn­bre­chen­de Über­blicks­stu­die aus dem Jahr 2019 kam zu einem alar­mie­ren­den Ergeb­nis: Es gibt kei­ne ver­läss­li­chen wis­sen­schaft­li­chen Bewei­se dafür, dass man den emo­tio­na­len Zustand einer Per­son anhand ihres Gesichts­aus­drucks zuver­läs­sig able­sen kann[7]Emo­tio­nal Expres­si­ons Recon­side­red: Chal­lenges to Infer­ring Emo­ti­on From Human Facial Move­ments[8]Vgl. dazu: Emo­tio­na­le KI: Berech­ne­te Gefüh­le[9]Emo­ti­ons­er­ken­nung mit künst­li­cher Intel­li­genz. Mög­lich­kei­ten und Gren­zen. Trotz­dem brei­tet sich der Ein­satz von Emo­ti­ons­er­ken­nungs­soft­ware rasant aus – nicht nur in der Per­so­nal­aus­wahl, son­dern zuneh­mend auch in Berei­chen der öffent­li­chen Überwac…