Der Kollaps der Silicon Valley Bank 2023 hat eine alte Schwachstelle der Bankenaufsicht neu sichtbar gemacht: Klassische Stresstests betrachten jede Bank für sich – als ob Finanzinstitute auf einer Insel lebten. Eine neue Studie testet, ob Methoden aus der Netzwerkforschung und der künstlichen Intelligenz diesen blinden Fleck schließen können. Das Ergebnis ist instruktiv – nicht nur wegen der Stärken des Ansatzes, sondern gerade wegen seiner Grenzen.
Das Problem: Stresstests sehen keinen Wald, nur Bäume
Wer Banken reguliert, braucht Frühwarnsysteme. Das wichtigste in den USA ist der sogenannte DFAST – ein gesetzlich vorgeschriebener Stresstest, bei dem große Banken durchrechnen müssen, wie sie sich unter ungünstigen wirtschaftlichen Bedingungen schlagen würden. Das klingt solide. Der Haken: DFAST bewertet jedes Institut für sich. Er fragt, ob eine bestimmte Bank einen Abschwung übersteht – nicht, ob eine Bank, die ins Wanken gerät, andere mit sich reißt.
Genau das ist beim SVB-Kollaps 2023 relevant geworden. Die Silicon Valley Bank war nach den üblichen Einzelkennzahlen kein offensichtlicher Risikofall – bis der Vertrauensverlust sich über soziale Netzwerke und Einlegeverflechtungen selbstverstärkend ausbreitete. Systemisches Risiko entsteht nicht in einzelnen Bilanzen, sondern im Raum dazwischen: in Kreditbeziehungen, gemeinsamen Engagements, geteilten Gegenparteien.
Der Ansatz: Banken als Netzwerk, nicht als Inseln
Eine neue akademische Arbeit nimmt dieses Problem zum Ausgangspunkt und verbindet zwei Werkzeuge, die in anderen Feldern längst erprobt sind: Graphentheorie und maschinelles Lernen. Die Grundidee ist einfach: Man behandelt Banken nicht als unabhängige Datenpunkte, sondern als Knoten in einem Netzwerk, das durch gegenseitige Kreditbeziehungen verbunden ist. Die Frage lautet dann nicht nur „Wie geht es dieser Bank?”, sondern auch: „Mit wem ist sie verbunden – und wie geht es deren Nachbarn?”
Das verwendete Modell heißt ST-GAT, was für „Spatial-Temporal Graph Attention Network” steht. Dahinter steckt folgende Logik: In einem ersten Schritt analysiert das Modell die Netzwerkstruktur zu einem gegebenen Zeitpunkt – welche Banken sind wie stark miteinander verbunden, und welche Signale senden die direkten und indirekten Nachbarn? In einem zweiten Schritt schaut das Modell über die Zeit: Wie hat sich das Risikoprofil einer Bank über die vergangenen Quartale entwickelt? Und welche vergangenen Phasen sind besonders aussagekräftig für die aktuelle Einschätzung? Am Ende steht für jede Bank zu jedem Quartal ein Risikowert zwischen null und eins.
Die Datenbasis ist beachtlich: 8.103 FDIC-versicherte US-Banken über 58 Quartale von 2010 bis 2024, ergänzt um makroökonomische Variablen wie den VIX-Angstindex, Zinssätze und Kreditaufschläge. Als „distressed” gilt eine Bank, wenn sie ausgefallen ist, eine zu geringe Eigenkapitalquote aufweist, zu viele notleidende Kredite hat oder dauerhaft Verluste schreibt.
Was das Modell leistet
Die Ergebnisse sind, gemessen an den üblichen Gütekriterien, gut. Das ST-GAT-Modell schneidet unter allen getesteten Netzwerkmodellen am besten ab. Es schlägt ältere Graphenansätze und liegt nur knapp hinter dem klassischen Baumverfahren XGBoost – einem rein tabellarischen Modell, das keinerlei Netzwerkinformation nutzt.
Besonders aufschlussreich ist die sogenannte Temporal-Attention-Komponente. Das Modell lernt, welche vergangenen Quartale für die aktuelle Risikoeinschätzung am relevantesten sind. Bei der risikoreichsten Bank im Testdatensatz zeigt sich ein klares Muster: Das Modell gewichtet weiter zurückliegende Quartale höher als den jüngsten Stand – es erkennt also, dass strukturelle Schwächen, die sich über Jahre aufgebaut haben, aussagekräftiger sind als kurzfristige Ausschläge. Bei risikoärmeren Banken liegt die zeitliche Aufmerksamkeit gleichmäßiger verteilt. Das ist ökonomisch plausibel und dürfte für eine regulatorische Nutzung relevant sein: Das Modell erklärt nicht nur sein Urteil, sondern auch, aus welcher Zeit es stammt.
Die Grenzen: Wo das Netzwerk aufhört zu nützen
Hier beginnt der eigentlich lehrreiche Teil der Studie – nicht die Stärken, sondern die Brüche.
Das zentrale Problem ist struktureller Natur: Tatsächliche Interbank-Kreditbeziehungen werden in den USA nicht auf Institutsebene öffentlich ausgewiesen. Die Autoren behelfen sich mit einer verbreiteten, aber folgenreichen Näherungsmethode: Sie rekonstruieren die Netzwerktopologie aus aggregierten Bilanzpositionen mithilfe des sogenannten Maximum-Entropy-Verfahrens. Dieses Verfahren verteilt Exposures so gleichmäßig wie möglich über alle möglichen Verbindungen – es gibt keine bevorzugten Beziehungen, keine Klumpen, keine Konzentrationen. Das Ergebnis ist ein mathematisch konsistentes, aber ökonomisch entleertes Netzwerk: alle Verbindungen ähnlich stark, alle Institute ähnlich weit voneinander entfernt.
Die Folge lässt sich direkt messen. Die Autoren tauschen die rekonstruierten Netzwerkkanten zufällig aus – die Knotenfeatures (also die Bilanzkennzahlen der einzelnen Banken) bleiben gleich, nur die Verbindungsstruktur wird randomisiert. Ergebnis: Die Modellgüte verändert sich kaum. Das bedeutet im Klartext, dass die Netzwerkstruktur faktisch nichts zur Vorhersageleistung beiträgt. Der zentrale Vorteil von Graphenmodellen – die Fähigkeit, Ansteckungspfade und Verflechtungsrisiken abzubilden – bleibt in dieser Konfiguration ungenutzt.
Ähnlich verhält es sich mit der makroökonomischen Konditionierung. Das Modell enthält eine Komponente, die Kreditrisiken je nach aktuellem Makrozustand stärker oder schwächer gewichten soll – in Krisenzeiten sollten Verbindungen gefährlicher sein als in ruhigen Phasen. Auch diese Komponente kollabiert im Training: Sie gibt für alle Testquartale nahezu denselben Wert aus, unabhängig von VIX oder Zinsumfeld. Der Zusatznutzen ist gleich null.
Was bleibt: Erklärbarkeit als eigentlicher Mehrwert
Was das Modell dann tatsächlich leistet, ist in erster Linie zeitliche Mustererkennung – und die Fähigkeit, diese Muster nachvollziehbar zu machen. Damit positioniert es sich weniger als Netzwerkmodell denn als erklärbares Sequenzmodell mit Netzwerk-Anspruch.
Das ist keine Kleinigkeit. Regulatoren in den USA unterliegen formalen Anforderungen an die Nachvollziehbarkeit von Modellentscheidungen (SR 11–7, OCC 2011-12). Ein System, das nicht nur sagt „diese Bank ist riskant”, sondern auch „wegen ihres Verlustmusters in den Quartalen zwei bis fünf vor der aktuellen Beobachtung” – das hat für die Aufsichtspraxis einen eigenständigen Wert, unabhängig von der reinen Vorhersagegüte.
Die Autoren schlagen vor, das Modell als ergänzende Frühwarnschicht neben bestehenden Instrumenten zu nutzen: neben dem DFAST, neben dem OFR-Monitor, neben dem Off-site-Monitoring von FDIC und OCC. Es handelt sich nicht um einen Ersatz, sondern um eine zusätzliche Perspektive – öffentlich zugänglich, netzwerkorientiert, quartalsweise aktualisierbar.
Einordnung: Ein ehrliches Experiment
Diese Studie verdient Respekt für ihre methodische Ehrlichkeit. Die Ablationsanalysen, die zeigen, was nicht funktioniert, nehmen fast so viel Raum ein wie die Befunde über das, was funktioniert. Das ist in einer Forschungslandschaft, die zu Schönfärberei neigt, keine Selbstverständlichkeit.
Das eigentliche Ergebnis lautet: Solange keine detaillierten, institutionsspezifischen Interbank-Exposuredaten öffentlich verfügbar sind, bleibt der Netzwerkansatz strukturell unterversorgt. Die Performance-Krone trägt am Ende XGBoost – ein Modell ohne jede Netzwerklogik, das schlicht die Bilanzkennzahlen jeder einzelnen Bank verarbeitet. Das sagt mehr über den Zustand der Datenverfügbarkeit im Bankensystem als über die Grenzen der Methode selbst.
Was die Studie demonstriert, ist ein Proof of Concept: Wenn reale Verflechtungsdaten zugänglich wären – etwa über die vertraulichen Y‑14-Meldungen der Großbanken –, könnte ein solcher Ansatz deutlich mehr leisten. Bis dahin bleibt er ein vielversprechendes Instrument mit einem unfertigen Netzwerkkern.
Ralf Keuper
Zur vollständigen Studie: Nanthaamornphong, A. (2025): „Explainable Spatial-Temporal Graph Attention Networks for Systemic Risk Assessment in Interbank Networks.” arXiv:2504.14232
