Der Kol­laps der Sili­con Val­ley Bank 2023 hat eine alte Schwach­stel­le der Ban­ken­auf­sicht neu sicht­bar gemacht: Klas­si­sche Stress­tests betrach­ten jede Bank für sich – als ob Finanz­in­sti­tu­te auf einer Insel leb­ten. Eine neue Stu­die tes­tet, ob Metho­den aus der Netz­werk­for­schung und der künst­li­chen Intel­li­genz die­sen blin­den Fleck schlie­ßen kön­nen. Das Ergeb­nis ist instruk­tiv – nicht nur wegen der Stär­ken des Ansat­zes, son­dern gera­de wegen sei­ner Grenzen.


Das Pro­blem: Stress­tests sehen kei­nen Wald, nur Bäume

Wer Ban­ken regu­liert, braucht Früh­warn­sys­te­me. Das wich­tigs­te in den USA ist der soge­nann­te DFAST – ein gesetz­lich vor­ge­schrie­be­ner Stress­test, bei dem gro­ße Ban­ken durch­rech­nen müs­sen, wie sie sich unter ungüns­ti­gen wirt­schaft­li­chen Bedin­gun­gen schla­gen wür­den. Das klingt soli­de. Der Haken: DFAST bewer­tet jedes Insti­tut für sich. Er fragt, ob eine bestimm­te Bank einen Abschwung über­steht – nicht, ob eine Bank, die ins Wan­ken gerät, ande­re mit sich reißt.

Genau das ist beim SVB-Kol­laps 2023 rele­vant gewor­den. Die Sili­con Val­ley Bank war nach den übli­chen Ein­zel­kenn­zah­len kein offen­sicht­li­cher Risi­ko­fall – bis der Ver­trau­ens­ver­lust sich über sozia­le Netz­wer­ke und Ein­le­ge­ver­flech­tun­gen selbst­ver­stär­kend aus­brei­te­te. Sys­te­mi­sches Risi­ko ent­steht nicht in ein­zel­nen Bilan­zen, son­dern im Raum dazwi­schen: in Kre­dit­be­zie­hun­gen, gemein­sa­men Enga­ge­ments, geteil­ten Gegenparteien.

Der Ansatz: Ban­ken als Netz­werk, nicht als Inseln

Eine neue aka­de­mi­sche Arbeit nimmt die­ses Pro­blem zum Aus­gangs­punkt und ver­bin­det zwei Werk­zeu­ge, die in ande­ren Fel­dern längst erprobt sind: Gra­phen­theo­rie und maschi­nel­les Ler­nen. Die Grund­idee ist ein­fach: Man behan­delt Ban­ken nicht als unab­hän­gi­ge Daten­punk­te, son­dern als Kno­ten in einem Netz­werk, das durch gegen­sei­ti­ge Kre­dit­be­zie­hun­gen ver­bun­den ist. Die Fra­ge lau­tet dann nicht nur „Wie geht es die­ser Bank?”, son­dern auch: „Mit wem ist sie ver­bun­den – und wie geht es deren Nachbarn?”

Das ver­wen­de­te Modell heißt ST-GAT, was für „Spa­ti­al-Tem­po­ral Graph Atten­ti­on Net­work” steht. Dahin­ter steckt fol­gen­de Logik: In einem ers­ten Schritt ana­ly­siert das Modell die Netz­werk­struk­tur zu einem gege­be­nen Zeit­punkt – wel­che Ban­ken sind wie stark mit­ein­an­der ver­bun­den, und wel­che Signa­le sen­den die direk­ten und indi­rek­ten Nach­barn? In einem zwei­ten Schritt schaut das Modell über die Zeit: Wie hat sich das Risi­ko­pro­fil einer Bank über die ver­gan­ge­nen Quar­ta­le ent­wi­ckelt? Und wel­che ver­gan­ge­nen Pha­sen sind beson­ders aus­sa­ge­kräf­tig für die aktu­el­le Ein­schät­zung? Am Ende steht für jede Bank zu jedem Quar­tal ein Risi­ko­wert zwi­schen null und eins.

Die Daten­ba­sis ist beacht­lich: 8.103 FDIC-ver­si­cher­te US-Ban­ken über 58 Quar­ta­le von 2010 bis 2024, ergänzt um makro­öko­no­mi­sche Varia­blen wie den VIX-Angst­in­dex, Zins­sät­ze und Kre­dit­auf­schlä­ge. Als „distres­sed” gilt eine Bank, wenn sie aus­ge­fal­len ist, eine zu gerin­ge Eigen­ka­pi­tal­quo­te auf­weist, zu vie­le not­lei­den­de Kre­di­te hat oder dau­er­haft Ver­lus­te schreibt.

Was das Modell leistet

Die Ergeb­nis­se sind, gemes­sen an den übli­chen Güte­kri­te­ri­en, gut. Das ST-GAT-Modell schnei­det unter allen getes­te­ten Netz­werk­mo­del­len am bes­ten ab. Es schlägt älte­re Gra­phen­an­sät­ze und liegt nur knapp hin­ter dem klas­si­schen Baum­ver­fah­ren XGBoost – einem rein tabel­la­ri­schen Modell, das kei­ner­lei Netz­werk­in­for­ma­ti­on nutzt.

Beson­ders auf­schluss­reich ist die soge­nann­te Tem­po­ral-Atten­ti­on-Kom­po­nen­te. Das Modell lernt, wel­che ver­gan­ge­nen Quar­ta­le für die aktu­el­le Risi­ko­ein­schät­zung am rele­van­tes­ten sind. Bei der risi­ko­reichs­ten Bank im Test­da­ten­satz zeigt sich ein kla­res Mus­ter: Das Modell gewich­tet wei­ter zurück­lie­gen­de Quar­ta­le höher als den jüngs­ten Stand – es erkennt also, dass struk­tu­rel­le Schwä­chen, die sich über Jah­re auf­ge­baut haben, aus­sa­ge­kräf­ti­ger sind als kurz­fris­ti­ge Aus­schlä­ge. Bei risi­ko­är­me­ren Ban­ken liegt die zeit­li­che Auf­merk­sam­keit gleich­mä­ßi­ger ver­teilt. Das ist öko­no­misch plau­si­bel und dürf­te für eine regu­la­to­ri­sche Nut­zung rele­vant sein: Das Modell erklärt nicht nur sein Urteil, son­dern auch, aus wel­cher Zeit es stammt.

Die Gren­zen: Wo das Netz­werk auf­hört zu nützen

Hier beginnt der eigent­lich lehr­rei­che Teil der Stu­die – nicht die Stär­ken, son­dern die Brüche.

Das zen­tra­le Pro­blem ist struk­tu­rel­ler Natur: Tat­säch­li­che Inter­bank-Kre­dit­be­zie­hun­gen wer­den in den USA nicht auf Insti­tuts­ebe­ne öffent­lich aus­ge­wie­sen. Die Autoren behel­fen sich mit einer ver­brei­te­ten, aber fol­gen­rei­chen Nähe­rungs­me­tho­de: Sie rekon­stru­ie­ren die Netz­werk­to­po­lo­gie aus agg­re­gier­ten Bilanz­po­si­tio­nen mit­hil­fe des soge­nann­ten Maxi­mum-Entro­py-Ver­fah­rens. Die­ses Ver­fah­ren ver­teilt Expo­sures so gleich­mä­ßig wie mög­lich über alle mög­li­chen Ver­bin­dun­gen – es gibt kei­ne bevor­zug­ten Bezie­hun­gen, kei­ne Klum­pen, kei­ne Kon­zen­tra­tio­nen. Das Ergeb­nis ist ein mathe­ma­tisch kon­sis­ten­tes, aber öko­no­misch ent­leer­tes Netz­werk: alle Ver­bin­dun­gen ähn­lich stark, alle Insti­tu­te ähn­lich weit von­ein­an­der entfernt.

Die Fol­ge lässt sich direkt mes­sen. Die Autoren tau­schen die rekon­stru­ier­ten Netz­werk­kan­ten zufäl­lig aus – die Kno­ten­fea­tures (also die Bilanz­kenn­zah­len der ein­zel­nen Ban­ken) blei­ben gleich, nur die Ver­bin­dungs­struk­tur wird ran­do­mi­siert. Ergeb­nis: Die Modell­gü­te ver­än­dert sich kaum. Das bedeu­tet im Klar­text, dass die Netz­werk­struk­tur fak­tisch nichts zur Vor­her­sa­geleis­tung bei­trägt. Der zen­tra­le Vor­teil von Gra­phen­mo­del­len – die Fähig­keit, Anste­ckungs­pfa­de und Ver­flech­tungs­ri­si­ken abzu­bil­den – bleibt in die­ser Kon­fi­gu­ra­ti­on ungenutzt.

Ähn­lich ver­hält es sich mit der makro­öko­no­mi­schen Kon­di­tio­nie­rung. Das Modell ent­hält eine Kom­po­nen­te, die Kre­dit­ri­si­ken je nach aktu­el­lem Makro­zu­stand stär­ker oder schwä­cher gewich­ten soll – in Kri­sen­zei­ten soll­ten Ver­bin­dun­gen gefähr­li­cher sein als in ruhi­gen Pha­sen. Auch die­se Kom­po­nen­te kol­la­biert im Trai­ning: Sie gibt für alle Test­quar­ta­le nahe­zu den­sel­ben Wert aus, unab­hän­gig von VIX oder Zins­um­feld. Der Zusatz­nut­zen ist gleich null.

Was bleibt: Erklär­bar­keit als eigent­li­cher Mehrwert

Was das Modell dann tat­säch­lich leis­tet, ist in ers­ter Linie zeit­li­che Mus­ter­er­ken­nung – und die Fähig­keit, die­se Mus­ter nach­voll­zieh­bar zu machen. Damit posi­tio­niert es sich weni­ger als Netz­werk­mo­dell denn als erklär­ba­res Sequenz­mo­dell mit Netzwerk-Anspruch.

Das ist kei­ne Klei­nig­keit. Regu­la­to­ren in den USA unter­lie­gen for­ma­len Anfor­de­run­gen an die Nach­voll­zieh­bar­keit von Modell­ent­schei­dun­gen (SR 11–7, OCC 2011-12). Ein Sys­tem, das nicht nur sagt „die­se Bank ist ris­kant”, son­dern auch „wegen ihres Ver­lust­mus­ters in den Quar­ta­len zwei bis fünf vor der aktu­el­len Beob­ach­tung” – das hat für die Auf­sichts­pra­xis einen eigen­stän­di­gen Wert, unab­hän­gig von der rei­nen Vorhersagegüte.

Die Autoren schla­gen vor, das Modell als ergän­zen­de Früh­warn­schicht neben bestehen­den Instru­men­ten zu nut­zen: neben dem DFAST, neben dem OFR-Moni­tor, neben dem Off-site-Moni­to­ring von FDIC und OCC. Es han­delt sich nicht um einen Ersatz, son­dern um eine zusätz­li­che Per­spek­ti­ve – öffent­lich zugäng­lich, netz­werk­ori­en­tiert, quar­tals­wei­se aktualisierbar.

Ein­ord­nung: Ein ehr­li­ches Experiment

Die­se Stu­die ver­dient Respekt für ihre metho­di­sche Ehr­lich­keit. Die Abla­ti­ons­ana­ly­sen, die zei­gen, was nicht funk­tio­niert, neh­men fast so viel Raum ein wie die Befun­de über das, was funk­tio­niert. Das ist in einer For­schungs­land­schaft, die zu Schön­fär­be­rei neigt, kei­ne Selbstverständlichkeit.

Das eigent­li­che Ergeb­nis lau­tet: Solan­ge kei­ne detail­lier­ten, insti­tu­ti­ons­spe­zi­fi­schen Inter­bank-Expo­su­re­da­ten öffent­lich ver­füg­bar sind, bleibt der Netz­werk­an­satz struk­tu­rell unter­ver­sorgt. Die Per­for­mance-Kro­ne trägt am Ende XGBoost – ein Modell ohne jede Netz­werk­lo­gik, das schlicht die Bilanz­kenn­zah­len jeder ein­zel­nen Bank ver­ar­bei­tet. Das sagt mehr über den Zustand der Daten­ver­füg­bar­keit im Ban­ken­sys­tem als über die Gren­zen der Metho­de selbst.

Was die Stu­die demons­triert, ist ein Pro­of of Con­cept: Wenn rea­le Ver­flech­tungs­da­ten zugäng­lich wären – etwa über die ver­trau­li­chen Y‑14-Mel­dun­gen der Groß­ban­ken –, könn­te ein sol­cher Ansatz deut­lich mehr leis­ten. Bis dahin bleibt er ein viel­ver­spre­chen­des Instru­ment mit einem unfer­ti­gen Netzwerkkern.

Ralf Keu­per 


Zur voll­stän­di­gen Stu­die: Nant­haa­morn­phong, A. (2025): „Explainable Spa­ti­al-Tem­po­ral Graph Atten­ti­on Net­works for Sys­te­mic Risk Assess­ment in Inter­bank Net­works.” arXiv:2504.14232