Es ist nicht all­zu über­ra­schend, wenn Bera­ter in Anwen­dun­gen, die unter dem Label Gene­ra­ti­ve AI lau­fen, einen Game­ch­an­ger zu erken­nen glau­ben[1]ChatGPT ist Game­ch­an­ger für Ban­ken[2]Davor war es u.a. die Block­chain. Seit dem Start von ChatGPT hagelt es Berich­te, die auch im Ban­king eine neue Zeit anbre­chen sehen. Nahe­zu jeder Bereich im Ban­king lässt sich dem­nach mit­tels ChatGPT und ande­rer Ver­fah­ren der Gene­ra­ti­ve AI trans­for­mie­ren[3]ChatGPT and Gene­ra­ti­ve AI in Ban­king[4]The Impli­ca­ti­ons of ChatGPT and AI Models on Fin­tech and Ban­king.

ChatGPT sel­ber ant­wor­tet auf die Fra­ge nach sei­nen Ein­satz­mög­lich­kei­ten im Ban­king[5]Einen ähn­li­chen Ver­such hat Jim Marous in Our ChatGPT Inter­view Shows AI Future in Ban­king Is Sca­ry-Good durch­ge­führt:

  1. Kun­den­ser­vice: ChatGPT kann in Chat­bots inte­griert wer­den, um Kun­den­ser­vice-Anfra­gen auto­ma­tisch zu beant­wor­ten. Kun­den kön­nen so rund um die Uhr Unter­stüt­zung erhal­ten, ohne auf einen Mit­ar­bei­ter war­ten zu müssen.
  2. Betrugs­er­ken­nung: ChatGPT kann zur Erken­nung von Betrugs­fäl­len ein­ge­setzt wer­den, indem er unge­wöhn­li­che Trans­ak­ti­ons­mus­ter oder ver­däch­ti­ge Akti­vi­tä­ten im Kun­den­ver­hal­ten erkennt.
  3. Inves­ti­ti­ons­be­ra­tung: ChatGPT kann zur Bera­tung von Kun­den bei Inves­ti­ti­ons­ent­schei­dun­gen ein­ge­setzt wer­den, indem er auf­grund von Kun­den­in­for­ma­tio­nen Emp­feh­lun­gen für Anla­ge­port­fo­li­os und Stra­te­gien gibt.
  4. Kre­dit­wür­dig­keits­prü­fung: ChatGPT kann bei der Prü­fung der Kre­dit­wür­dig­keit von Kun­den hel­fen, indem er Kun­den­in­for­ma­tio­nen wie Ein­kom­men, Aus­ga­ben und Kre­dit­ge­schich­te ana­ly­siert und eine schnel­le und prä­zi­se Bewer­tung abgibt.
  5. Per­so­na­li­sie­rung: ChatGPT kann genutzt wer­den, um per­so­na­li­sier­te Emp­feh­lun­gen für Finanz­pro­duk­te und ‑dienst­leis­tun­gen zu geben, indem er auf das Kun­den­ver­hal­ten und die Vor­lie­ben basie­ren­de Emp­feh­lun­gen abgibt.

Trotz der viel­ver­spre­chen­den Mög­lich­kei­ten, gibt es eine Rei­he von Her­aus­for­de­run­gen, die vor einer brei­te­ren Ein­füh­rung sorg­fäl­tig geprüft wer­den müs­sen. Es ist wich­tig zu wis­sen, dass die gene­ra­ti­ve KI noch eine rela­tiv neue Tech­no­lo­gie ist, und ihre poten­zi­el­len Anwen­dun­gen im Ban­ken­sek­tor wer­den noch erforscht, so Ste­ven Mor­gan von Pegasystems.

  • Gene­ra­ti­ve KI-Algo­rith­men müs­sen gro­ße Men­gen unter­schied­li­cher und reprä­sen­ta­ti­ver Kun­den­da­ten ana­ly­sie­ren, und die Ban­ken müs­sen sicher­stel­len, dass die­se Daten sicher auf­be­wahrt und nicht miss­braucht wer­den. Die Ban­ken müs­sen über robus­te Sicher­heits­maß­nah­men ver­fü­gen, um die Kun­den­da­ten vor unbe­fug­tem Zugriff und Mani­pu­la­ti­on zu schützen.
  • Gene­ra­ti­ve KI-Algo­rith­men sind nur so gut wie die Daten, auf denen sie trai­niert wer­den, und es muss sicher­ge­stellt wer­den, dass die Daten, die zum Trai­nie­ren der Algo­rith­men ver­wen­det wer­den, viel­fäl­tig, reprä­sen­ta­tiv, genau und auf dem neu­es­ten Stand sind. Wenn dies nicht der Fall ist, wer­den die von den Algo…