Getting your Trinity Audio player ready...

Finanz­in­sti­tu­te haben Künst­li­che Intel­li­genz (KI) schnell über­nom­men, um Effi­zi­enz­stei­ge­run­gen zu erzie­len. Doch die­se Ent­wick­lung birgt neue Risi­ken für die Sta­bi­li­tät des Finanz­sys­tems, auf die die Auf­sichts­be­hör­den mög­li­cher­wei­se unzu­rei­chend vor­be­rei­tet sind, so Jon Dani­els­son in Arti­fi­ci­al intel­li­gence and sta­bi­li­ty. Die Ein­füh­rung von KI könn­te zu schnel­le­ren und gra­vie­ren­de­ren Finanz­kri­sen füh­ren, was die Not­wen­dig­keit erhöht, geeig­ne­te Maß­nah­men zu ergreifen.

Haupt­pro­ble­me und Risiken

  1. Auto­no­me Ent­schei­dun­gen: Im Gegen­satz zu frü­he­ren Tech­no­lo­gien trifft KI auto­no­me Ent­schei­dun­gen, was neue Her­aus­for­de­run­gen für die Finanz­sta­bi­li­tät mit sich bringt. Die­se Ent­schei­dun­gen sind oft intrans­pa­rent und kön­nen zu uner­war­te­ten Kon­se­quen­zen füh­ren, ins­be­son­de­re wenn KI-Sys­te­me in kri­ti­schen finan­zi­el­len Kon­tex­ten ein­ge­setzt werden.
  2. Schnel­lig­keit der Reak­tio­nen: KI kann sehr schnell auf Markt­ver­än­de­run­gen reagie­ren. Wäh­rend dies in sta­bi­len Zei­ten vor­teil­haft sein kann, könn­te es in Kri­sen­si­tua­tio­nen dazu füh­ren, dass Finanz­in­sti­tu­tio­nen kol­lek­tiv panisch reagie­ren, was die Kri­se wei­ter ver­schär­fen könnte.
  3. Daten­ab­hän­gig­keit und Hal­lu­zi­na­ti­on: KI-Sys­te­me benö­ti­gen gro­ße Men­gen an rele­van­ten Daten, um effek­tiv zu funk­tio­nie­ren. Wenn die­se Daten nicht vor­han­den sind, kann KI fal­sche Ent­schei­dun­gen tref­fen. Dies ist beson­ders pro­ble­ma­tisch in Kri­sen­si­tua­tio­nen, wo wenig his­to­ri­sche Daten zu extre­men Ereig­nis­sen ver­füg­bar sind.
  4. Mono­kul­tur der Risi­ken: Die Kon­zen­tra­ti­on auf weni­ge Anbie­ter im Bereich der KI könn­te zu einer Mono­kul­tur füh­ren, wo alle Insti­tu­te ähn­li­che Ent­schei­dun­gen tref­fen und damit sys­te­mi­sche Risi­ken verstärken.

Hand­lungs­emp­feh­lun­gen für Aufsichtsbehörden

Um die­sen Her­aus­for­de­run­gen zu begeg­nen, schlägt Dani­els­son fünf wesent­li­che Maß­nah­men vor:

  1. Auf­bau inter­ner KI-Exper­ti­se: Die Auf­sichts­be­hör­den soll­ten eige­ne KI-Kom­pe­ten­zen ent­wi­ckeln, um Risi­ken bes­ser ver­ste­hen und dar­auf reagie­ren zu kön­nen. Dies ist ent­schei­dend, um die Aus­wir­kun­gen von KI auf die Finanz­sta­bi­li­tät zu analysieren.
  2. Inte­gra­ti­on von KI in Finanz­sta­bi­li­täts­ab­tei­lun­gen: Anstatt die Ana­ly­se der Aus­wir­kun­gen von KI in IT- oder Daten­ab­tei­lun­gen zu ver­la­gern, soll­te sie ein zen­tra­ler Bestand­teil der Finanz­sta­bi­li­täts­über­wa­chung werden.
  3. Beschaf­fung von KI-Sys­te­men für die Inter­ak­ti­on: Die Behör­den soll­ten Sys­te­me erwer­ben, die direkt mit den KI-Engi­nes der Finanz­in­sti­tu­te inter­agie­ren kön­nen. Dies ermög­licht eine schnel­le­re Iden­ti­fi­zie­rung von Risi­ken und eine trans­pa­ren­te­re Ein­sicht in auto­ma­ti­sier­te Entscheidungen.
  4. Ein­rich­tung auto­ma­tisch aus­ge­lös­ter Liqui­di­täts­fa­zi­li­tä­ten: Ange­sichts der Schnel­lig­keit, mit der KI auf Markt­ver­än­de­run­gen reagie­ren kann, sind auto­ma­tisch aus­ge­lös­te Liqui­di­täts­fa­zi­li­tä­ten not­wen­dig, um die Sta­bi­li­tät wäh­rend Kri­sen zu gewährleisten.
  5. Aus­la­ge­rung kri­ti­scher KI-Funk­tio­nen: Die Aus­la­ge­rung von KI-Funk­tio­nen an Dritt­an­bie­ter kann hel­fen, tech­ni­sche Lücken zu schlie­ßen. Dies birgt jedoch Risi­ken bezüg­lich der Kon­trol­le und des Know-hows inner­halb der Aufsichtsbehörden.

Fazit

Wäh­rend KI erheb­li­che Vor­tei­le für das Finanz­sys­tem bie­ten kann, wie etwa eine ver­bes­ser­te Risi­ko­be­wer­tung und Kos­ten­sen­kun­gen, müs­sen die damit ver­bun­de­nen Sta­bi­li­täts­ri­si­ken ernst genom­men wer­den. Die Auf­sichts­be­hör­den ste­hen vor der Her­aus­for­de­rung, ihre Regu­lie­rungs­rah­men und Risi­ko­ma­nage­m­ent­werk­zeu­ge neu zu gestal­ten, um auf die dyna­mi­schen Ver­än­de­run­gen durch KI vor­be­rei­tet zu sein. Ihre Reak­ti­ons­fä­hig­keit wird ent­schei­dend dafür sein, wie gut sie zukünf­ti­ge KI-indu­zier­te Kri­sen bewäl­ti­gen können.