Getting your Trinity Audio player ready...

Die Fra­ge, inwie­weit gene­ra­ti­ve Künst­li­che Intel­li­genz in sys­tem­kri­ti­sche Finanz­pro­zes­se inte­griert wer­den kann, beschäf­tigt Zen­tral­ban­ken und Auf­sichts­be­hör­den zuneh­mend. Das Working Paper Nr. 1310 der Bank für Inter­na­tio­na­len Zah­lungs­aus­gleich (BIS) lie­fert nun ers­te empi­ri­sche Befun­de zu einem beson­ders sen­si­blen Anwen­dungs­feld: dem Intra­day-Liqui­di­täts­ma­nage­ment in Wholesale-Zahlungssystemen.


Die Autoren Iña­ki Alda­soro und Ajit Desai führ­ten prompt-basier­te Expe­ri­men­te mit dem Reaso­ning-Modell von ChatGPT durch. Ihr Erkennt­nis­in­ter­es­se rich­te­te sich dar­auf, ob ein all­ge­mei­nes Sprach­mo­dell ohne domä­nen­spe­zi­fi­sches Trai­ning in der Lage ist, kom­ple­xe Cash-Manage­ment-Ent­schei­dun­gen zu tref­fen. Die Ver­suchs­an­ord­nung simu­lier­te ver­schie­de­ne Zah­lungs­sze­na­ri­en mit Liqui­di­täts­schocks und kon­kur­rie­ren­den Prioritäten.

Die Befun­de sind bemer­kens­wert. Der KI-Agent repro­du­zier­te wesent­li­che pru­den­zi­el­le Prak­ti­ken des Cash-Manage­ments: Er hielt prä­ven­ti­ve Liqui­di­täts­puf­fer auf­recht, prio­ri­sier­te Zah­lun­gen nach Dring­lich­keit und berück­sich­tig­te erwar­te­te Zu- und Abflüs­se. Sei­ne Emp­feh­lun­gen erwie­sen sich als kali­briert – sie erhiel­ten Liqui­di­tät und mini­mier­ten zugleich Ver­zö­ge­run­gen. In inter­ak­ti­ven Sze­na­ri­en demons­trier­te der Agent zudem die Fähig­keit, bei poten­zi­ell anoma­len Situa­tio­nen eigen­stän­dig mensch­li­che Auf­sicht anzufordern.

Die­se Ergeb­nis­se legen nahe, dass rou­ti­ne­mä­ßi­ge Cash-Manage­ment-Auf­ga­ben mit­tels All­zweck-Sprach­mo­del­len auto­ma­ti­siert wer­den könn­ten. Dar­aus ergä­ben sich poten­zi­el­le Effi­zi­enz­ge­win­ne bei Betriebs­kos­ten und Intraday-Liquiditätsnutzung.

Aller­dings nahm die Kon­sis­tenz des Agen­ten bei zuneh­men­der Kom­ple­xi­tät der Expe­ri­men­te ab – ein Befund, der zur Vor­sicht mahnt. Die Autoren iden­ti­fi­zie­ren wei­te­re struk­tu­rel­le Risi­ken: die Anfäl­lig­keit für unvor­her­ge­se­he­ne Extrem­ereig­nis­se, Pro­ble­me der Daten­qua­li­tät, Modell­ver­zer­run­gen sowie die grund­sätz­li­che Intrans­pa­renz der Ent­schei­dungs­fin­dung. Die soge­nann­te Black-Box-Pro­ble­ma­tik wiegt bei kri­ti­schen Finanz­in­fra­struk­tu­ren beson­ders schwer.

Die Stu­die mün­det in eine Dis­kus­si­on regu­la­to­ri­scher Schutz­maß­nah­men, die Zen­tral­ban­ken im Zeit­al­ter KI-gesteu­er­ter Zah­lungs­vor­gän­ge erwä­gen müs­sen. Gene­ra­ti­ve KI-Agen­ten könn­ten eine fle­xi­ble­re Alter­na­ti­ve zu tra­di­tio­nel­len Rein­force­ment-Lear­ning-Ansät­zen dar­stel­len. Doch bevor sie in pro­duk­ti­ve Sys­te­me inte­griert wer­den, bedarf es wei­te­rer For­schung in kom­ple­xe­ren Sze­na­ri­en – und einer grund­sätz­li­chen Klä­rung der Fra­ge, wel­ches Maß an mensch­li­cher Auf­sicht bei kri­ti­schen Ent­schei­dun­gen unver­zicht­bar bleibt.