|
Getting your Trinity Audio player ready...
|
Die Frage, inwieweit generative Künstliche Intelligenz in systemkritische Finanzprozesse integriert werden kann, beschäftigt Zentralbanken und Aufsichtsbehörden zunehmend. Das Working Paper Nr. 1310 der Bank für Internationalen Zahlungsausgleich (BIS) liefert nun erste empirische Befunde zu einem besonders sensiblen Anwendungsfeld: dem Intraday-Liquiditätsmanagement in Wholesale-Zahlungssystemen.
Die Autoren Iñaki Aldasoro und Ajit Desai führten prompt-basierte Experimente mit dem Reasoning-Modell von ChatGPT durch. Ihr Erkenntnisinteresse richtete sich darauf, ob ein allgemeines Sprachmodell ohne domänenspezifisches Training in der Lage ist, komplexe Cash-Management-Entscheidungen zu treffen. Die Versuchsanordnung simulierte verschiedene Zahlungsszenarien mit Liquiditätsschocks und konkurrierenden Prioritäten.
Die Befunde sind bemerkenswert. Der KI-Agent reproduzierte wesentliche prudenzielle Praktiken des Cash-Managements: Er hielt präventive Liquiditätspuffer aufrecht, priorisierte Zahlungen nach Dringlichkeit und berücksichtigte erwartete Zu- und Abflüsse. Seine Empfehlungen erwiesen sich als kalibriert – sie erhielten Liquidität und minimierten zugleich Verzögerungen. In interaktiven Szenarien demonstrierte der Agent zudem die Fähigkeit, bei potenziell anomalen Situationen eigenständig menschliche Aufsicht anzufordern.
Diese Ergebnisse legen nahe, dass routinemäßige Cash-Management-Aufgaben mittels Allzweck-Sprachmodellen automatisiert werden könnten. Daraus ergäben sich potenzielle Effizienzgewinne bei Betriebskosten und Intraday-Liquiditätsnutzung.
Allerdings nahm die Konsistenz des Agenten bei zunehmender Komplexität der Experimente ab – ein Befund, der zur Vorsicht mahnt. Die Autoren identifizieren weitere strukturelle Risiken: die Anfälligkeit für unvorhergesehene Extremereignisse, Probleme der Datenqualität, Modellverzerrungen sowie die grundsätzliche Intransparenz der Entscheidungsfindung. Die sogenannte Black-Box-Problematik wiegt bei kritischen Finanzinfrastrukturen besonders schwer.
Die Studie mündet in eine Diskussion regulatorischer Schutzmaßnahmen, die Zentralbanken im Zeitalter KI-gesteuerter Zahlungsvorgänge erwägen müssen. Generative KI-Agenten könnten eine flexiblere Alternative zu traditionellen Reinforcement-Learning-Ansätzen darstellen. Doch bevor sie in produktive Systeme integriert werden, bedarf es weiterer Forschung in komplexeren Szenarien – und einer grundsätzlichen Klärung der Frage, welches Maß an menschlicher Aufsicht bei kritischen Entscheidungen unverzichtbar bleibt.
