Getting your Trinity Audio player ready...

Künst­li­che Intel­li­genz ver­spricht Effi­zi­enz, doch zwi­schen algo­rith­mi­scher Emp­feh­lung und mensch­li­cher Ent­schei­dung ent­ste­hen Rei­bungs­ver­lus­te. Ein Bei­trag über die Trans­for­ma­ti­on im Ban­king – und wie sich die Balan­ce zwi­schen Maschi­ne und Mensch neu jus­tie­ren lässt, ohne an Qua­li­tät zu verlieren.


Der Bank­be­ra­ter starrt auf sei­nen Bild­schirm. Das Risi­ko­mo­dell ist ein­deu­tig: 85 Pro­zent Aus­fall­wahr­schein­lich­keit für Kre­di­te in Sek­tor X. Ein kla­res Signal. Doch dann klin­gelt das Tele­fon. Am ande­ren Ende ein Unter­neh­mer, des­sen Betrieb seit drei Gene­ra­tio­nen läuft, des­sen Zah­len soli­de sind, der nur das Pech hat, in genau die­sem Sek­tor tätig zu sein. Was nun? Kate­go­ri­sches Nein, weil es der Algo­rith­mus sagt? Oder indi­vi­du­el­le Prü­fung, weil der Mensch mehr sieht als Zahlen?

Die­se Sze­ne spielt sich täg­lich ab – in deut­schen Bank­fi­lia­len, an Han­dels­plät­zen, in Finanz­be­ra­tun­gen. Sie mar­kiert den neur­al­gi­schen Punkt einer Trans­for­ma­ti­on, die weit mehr ist als blo­ße Digi­ta­li­sie­rung. Es ist die Fra­ge, wie objek­ti­ve Model­le und sub­jek­ti­ve Inter­pre­ta­ti­on, wie maschi­nel­le Intel­li­genz und mensch­li­ches Urteils­ver­mö­gen zuein­an­der fin­den. Oder phi­lo­so­phisch aus­ge­drückt: Wie die Wel­ten Karl Pop­pers – die Welt der objek­ti­ven Theo­rien (Welt3), die Welt des sub­jek­ti­ven Bewusst­seins (Welt2) und die Welt der phy­si­schen Rea­li­tät (Welt1) – im Ban­king ineinandergreifen.

Wenn Algo­rith­men auf Men­schen treffen

Die Zah­len klin­gen viel­ver­spre­chend. 2.200 von 6.000 Mit­ar­bei­tern bei der DZ Bank nut­zen täg­lich KI-Tools. Oli­ver Wyman pro­gnos­ti­ziert 30 bis 45 Pro­zent Kos­ten­ein­spa­rung durch KI-Chat­bots bei gleich­blei­ben­der Kun­den­zu­frie­den­heit. Doch zwi­schen Pro­gno­se und Pra­xis klafft eine Lücke, die sich nicht in Pro­zent­punk­ten mes­sen lässt.

Ein Robo-Advi­sor emp­fiehlt einem 55-jäh­ri­gen Kun­den eine Port­fo­lio-Allo­ka­ti­on von 60 Pro­zent Akti­en, 40 Pro­zent Anlei­hen. Stan­dard­emp­feh­lung, algo­rith­misch opti­miert, sta­tis­tisch fun­diert. Der Bera­ter weiß jedoch: Der Kun­de steht mit­ten in einer Schei­dung, die Liqui­di­tät muss gesi­chert sein, emo­tio­na­le Sta­bi­li­tät ist fra­gil. Die Emp­feh­lung passt nicht. Also passt er an. Das Sys­tem kate­go­ri­siert einen ande­ren Kun­den als „kon­ser­va­tiv”. Im Gespräch zeigt sich: Der Kun­de ist risi­ko­be­reit, nur schlecht infor­miert. Wie­der eine Korrektur.

Die­se Kor­rek­tu­ren sind kei­ne Feh­ler im Sys­tem – sie sind der sys­te­mi­sche Nor­mal­fall. Denn …