Von Ralf Keuper

Die Ver­fah­ren der Künst­li­chen Intel­li­genz sol­len uns auch im Ban­king eine neue, bes­se­re Welt besche­ren. Das gilt in beson­de­rer Wei­se für das Kun­den­er­leb­nis. End­lich, so die Hoff­nung, wird der Kun­de mit sei­nen Bedürf­nis­sen wahr- und ernst­ge­nom­men. Was ihm selbst viel­leicht nicht immer bewusst war, bringt nun die Künst­li­che Intel­li­genz, sei es in Form des Machi­ne Lear­ning oder des Deep Lear­ning, zum Vor­schein. In den Ban­ken sel­ber wer­den auf ein­mal Chan­cen- und Gefah­ren­po­ten­zia­le sicht­bar, die bis­lang unter den zer­klüf­te­ten IT-Land­schaf­ten begra­ben waren.

Die­se Hal­tung ist Aus­druck eines, wie der Phi­lo­soph Mar­kus Gabri­el es nennt, sta­tis­ti­schen oder kor­re­la­ti­ven Denk­mo­dells bzw. Weltbildes.

https://www.youtube.com/watch?v=d41TaF0CQMI

Dahin­ter ver­birgt sich die Über­zeu­gung, dass bei den rie­si­gen Daten­men­gen, die heu­te für Ana­ly­se­zwe­cke zur Ver­fü­gung ste­hen, die Kor­re­la­ti­on – und nicht die Kau­sa­li­tät – das Maß der Din­ge ist, bzw. die Kor­re­la­ti­on ist so gut, dass man das Kau­sa­li­täts­prin­zip ver­nach­läs­si­gen kann. Pro­mi­nen­ter Ver­tre­ter die­ser Rich­tung ist Chris Ander­son, der vor eini­gen Jah­ren von dem Ende der Theo­rie sprach (Vgl. dazu: Im Daten­rausch). Hypo­the­sen zu for­mu­lie­ren, die es dann in Tests und Expe­ri­men­ten zu bewei­sen oder fal­si­fi­zie­ren gilt, ist unnö­tig. Daten lügen nicht.

Gabri­el warnt davor, die Reprä­sen­ta­ti­on mit dem Ori­gi­nal zu ver­wech­seln, d.h. eine Kar­te des Schwarz­wal­des, so genau sie auch sein mag, ist nicht der Schwarz­wald – sie ist und bleibt ein Abbild, das ver­schie­de­ne Inter­pre­ta­tio­nen zulässt.

KI, so Gabri­el wei­ter, idea­li­siert ein Denk­mo­dell aus Daten­men­gen. Es wer­den Denk­mo­del­le auf Daten­sät­ze ange­wandt – aber kei­ne Denkvollzüge…