Der Auf­bau einer gene­ra­ti­ven KI-Platt­form von Grund auf gibt einer Bank die vol­le Kon­trol­le über ihre Merk­ma­le und Funk­tio­nen. Die KI-Tech­no­lo­gie kann sich genau an die Anfor­de­run­gen der Bank anpas­sen. Dies gewähr­leis­tet die Über­ein­stim­mung mit den ein­zig­ar­ti­gen Arbeits­ab­läu­fen der Bank und bie­tet ein maß­ge­schnei­der­tes Nut­zer­er­leb­nis. Ein wei­te­rer Vor­teil ist, dass das eige­ne Wis­sen, das Domä­nen­wis­sen, in der Bank bleibt. Eben­so kann die Abhän­gig­keit von Her­stel­lern ver­hin­dert, zumin­dest aber redu­ziert werden.

Vor die­sem Hin­ter­grund ergibt der Schritt der Spar­kas­sen, ihre Gene­ra­ti­ven KI-Anwen­dun­gen im Rechen­zen­trum der eige­nen IT-Dienst­leis­te­rin, der Finanz Infor­ma­tik (FI), zu betrei­ben, auf den ers­ten Blick durch­aus Sinn. Laut dem Chef der Finanz-Infor­ma­tik wer­den dabei vor­trai­nier­te Open-Source-KI-Model­le von Meta und Mis­tral ein­ge­setzt, die an die Bedürf­nis­se der Spar­kas­sen anpasst wer­den. Die Anwen­dun­gen lau­fen auf Nvi­dia-Chips[1]Spar­kas­sen GPT im Anmarsch: Ban­ken set­zen auf eige­ne KI-Ent­wick­lun­gen.

Ande­re Bank set­zen dage­gen auf kom­mer­zi­el­le Anwen­dun­gen. Wel­cher Weg ist der richtige?

Wie bereits ein­gangs erwähnt, sind die wesent­li­chen Vor­tei­le beim Auf­bau einer eige­nen KI-Lösung, dass maß­ge­schnei­der­te, fein abge­stimm­te Model­le bes­ser sind als KI von der Stan­ge, das Know How unter der eige­nen Kon­trol­le bleibt und kei­ne Abhän­gig­keits­ver­hält­nis­se ein­ge­gan­gen wer­den. Die Ent­wick­lungs- und Releasestra­te­gie wird von der Bank bestimmt. Das alles unter der Annah­me, dass die Bank über genü­gend eige­ne Talen­te und Kom­pe­ten­zen ver­fügt, um die Wei­ter­ent­wick­lung der KI-Model­le in Eigen­re­gie zu über­neh­men, und die Rechen­zen­tren in der Lage sind, die Infra­struk­tu­ren zu managen.

Ban­ken, die die­sen Weg ein­schla­gen, set­zen dar­auf, dass sich die zusätz­li­chen Kos­ten (Sup­port, War­tung, Wei­ter­ent­wick­lung, Aus­bil­dung, Anwerbung/​Einarbeitung neu­er Mit­ar­bei­ter, Koor­di­na­ti­on, Infrastruktur)((Um eine eige­ne Ver­si­on eines Open-Source-LLM zu trai­nie­ren, wer­den extrem gro­ße Daten­sät­ze benö­tigt. Die­se müs­sen kura­tiert wer­den. Außer­dem sind Daten­pipe­lines zum Berei­ni­gen, Dedu­pli­zie­ren, Vor­ver­ar­bei­ten und Toke­ni­sie­ren der…