Von Ralf Keuper

Da Risi­ko­mo­del­le einen gro­ßen Ein­fluss auf die Geschäfts­po­li­tik und den Risi­ko­ap­pe­tit einer Bank haben, ist die Ban­ken­auf­sicht bestrebt, Modell­ri­si­ken mög­lichst früh­zei­tig zu erken­nen. Das umfasst in beson­de­rer Wei­se die Beschäf­ti­gung mit den Algo­rith­men, die den Model­len zugrun­de liegen.

Die Deut­sche Bun­des­bank hat ihre Hal­tung dazu in dem Dis­kus­si­ons­pa­pier The Use of Arti­fi­ci­al Intel­li­gence and Machi­ne Lear­ning in the Finan­cial Sec­tor dargelegt.

Mit der Ver­brei­tung des Machi­ne Lear­ning gewin­nen selbst­ler­nen­de Algo­rith­men bei  Daten­ana­ly­sen an Bedeu­tung. Die genaue Arbeits­wei­se selbst­ler­nen­der Algo­rith­men bzw. Künst­li­cher Neu­ro­na­ler Net­ze ist für Außen­ste­hen­de kaum bis gar nicht nach­voll­zieh­bar, da sie ihre Vor­her­sa­gen auf Basis kom­pli­zier­ter nicht-linea­rer Funk­tio­nen tref­fen. Mög­li­che Ver­zer­run­gen, wie z.B. das Over­fit­ting (Über­ge­ne­ra­li­sie­rung), kön­nen lan­ge unbe­merkt bleiben.

Zwar sieht sich die Bun­des­bank nicht in der Rol­le eines Algo­rith­men-Prü­fers, jedoch müs­sen die Aufsichtsbehörden…