Ein neu­es Simu­la­ti­ons­ver­fah­ren ermög­licht erst­mals die zuver­läs­si­ge Bewer­tung von Unter­neh­mens­an­lei­hen in Ban­ken­sys­te­men, in denen der Aus­fall einer Bank Ver­lus­te auf ande­re Insti­tu­te über­trägt und so eine Ket­ten­re­ak­ti­on aus­lö­sen kann. Das Ver­fah­ren löst dabei ein zen­tra­les rech­ne­ri­sches Pro­blem: Es berech­net effi­zi­ent, wie viel eine Anlei­he noch wert ist, wenn sich Zah­lungs­aus­fäl­le durch ein eng ver­floch­te­nes Netz­werk von Ban­ken fort­pflan­zen – und das auch dann, wenn sol­che sys­te­mi­schen Kri­sen sel­ten sind, aber im Ernst­fall beson­ders schwer wiegen.


Das Pro­blem: Netz­werk­ef­fek­te und sel­te­ne Ereignisse

Die Bewer­tung von Unter­neh­mens­an­lei­hen, die von Ban­ken aus­ge­ge­ben wer­den, ist ein in der Theo­rie wie in der Pra­xis unter­schätz­tes Pro­blem. In iso­lier­ter Betrach­tung – eine Bank, ein Schuld­ner, eine Aus­fall­wahr­schein­lich­keit – ist das Kre­dit­ri­si­ko­mo­dell hand­hab­bar. Die Rea­li­tät ver­netz­ter Ban­ken­sys­te­me sieht anders aus.

Ban­ken hal­ten wech­sel­sei­ti­ge For­de­run­gen gegen­ein­an­der. Gerät eine Insti­tu­ti­on in Zah­lungs­schwie­rig­kei­ten, pflanzt sich der Ver­lust über die­se Expo­sures ins Netz­werk fort. Was als ein­zel­ner Aus­fall beginnt, kann als sys­te­mi­sches Ereig­nis enden – ein Kas­ka­den­ef­fekt, der in der Finanz­kri­se von 2008 empi­risch beob­ach­tet wur­de und seit­dem das regu­la­to­ri­sche Den­ken prägt.

Für die Anlei­he­preis­bil­dung hat das eine unmit­tel­ba­re Kon­se­quenz: Der Rück­zah­lungs­be­trag einer Anlei­he hängt nicht allein von der emit­tie­ren­den Bank ab, son­dern vom Zustand des gesam­ten Netz­werks im Aus­fall­zeit­punkt. For­mal lässt sich die­ses Gleich­ge­wicht als Lösung eines nicht­li­nea­ren Fix­punkt­sys­tems beschrei­ben – in Anleh­nung an das von Eisen­berg und Noe ent­wi­ckel­te Zah­lungs­vek­to­ren-Modell. Die­ses Sys­tem hat kei­ne geschlos­se­ne Form; sei­ne Lösung ist numerisch.

Zah­lungs­vek­to­ren-Modell von Eisen­berg und Noe 
Das von Law­rence Eisen­berg und Tho­mas Noe im Jahr 2001 ent­wi­ckel­te Modell beschreibt, wie Zah­lun­gen in einem Netz­werk wech­sel­sei­tig ver­schul­de­ter Ban­ken im Insol­venz­fall ver­teilt wer­den. Jede Bank hält For­de­run­gen gegen­über ande­ren Ban­ken und ist gleich­zei­tig selbst Schuld­ne­rin. Gerät eine Bank in Zah­lungs­schwie­rig­kei­ten, sinkt damit auch der Betrag, den sie an ihre Gläu­bi­ger­ban­ken über­wei­sen kann – was deren Zah­lungs­fä­hig­keit wie­der­um beein­träch­tigt. Das Modell bestimmt für ein sol­ches Netz­werk einen soge­nann­ten Gleich­ge­wichts-Zah­lungs­vek­tor: eine Lösung, die angibt, wie viel jede Bank unter Berück­sich­ti­gung aller wech­sel­sei­ti­gen Abhän­gig­kei­ten tat­säch­lich zah­len kann. Die­se Lösung ergibt sich nicht direkt aus einer ein­fa­chen For­mel, son­dern als Fix­punkt eines nicht­li­nea­ren Glei­chungs­sys­tems – ein mathe­ma­ti­sches Gleich­ge­wicht, das die Kas­ka­den­ef­fek­te im Netz­werk voll­stän­dig abbildet.

Nai­ver Mon­te-Car­lo-Simu­la­ti­on gelingt es nicht, die­ses Pro­blem adäquat zu lösen. Das Grund­pro­blem ist sta­tis­ti­scher Natur: Sys­te­mi­sche Aus­fäl­le – also simul­ta­ne Defaults meh­re­rer Ban­ken – sind sel­te­ne Ereig­nis­se. Ihre Ein­tritts­häu­fig­keit in zufäl­lig gezo­ge­nen Simu­la­ti­ons­pfa­den ist gering, ihr Bei­trag zum Erwar­tungs­wert der Ver­lust­ver­tei­lung und damit zum Anlei­he­preis aber erheb­lich. Wer die­se Tail­risks sys­te­ma­tisch unter­re­prä­sen­tiert, unter­schätzt Spreads und über­schätzt Bonität.

Klas­si­sche Rare-Event-Ver­fah­ren – etwa Importance Sam­pling auf Basis expo­nen­ti­el­ler Til­tung – sind für nied­rig­di­men­sio­na­le Pro­ble­me ent­wi­ckelt wor­den. Mit wach­sen­der Netz­werk­grö­ße ver­lie­ren sie an Effi­zi­enz; höhe­re Ord­nun­gen von Netz­werk­ef­fek­ten, also Kas­ka­den­ef­fek­te zwei­ten und drit­ten Gra­des, blei­ben oft unberücksichtigt.

Der metho­di­sche Ansatz: Ent­kopp­lung über zwei Stufen

Der in der vor­lie­gen­den Stu­die vor­ge­schla­ge­ne Ansatz – Bi-Level Importance Sam­pling with Split­ting – setzt an die­ser Eng­stel­le an. Das zen­tra­le Design-Prin­zip ist eine Ent­kopp­lung: Default-Ereig­nis­se ein­zel­ner Ban­ken wer­den pro­ba­bi­lis­tisch von der kom­ple­xen Fix­punkt-Dyna­mik des Netz­werks getrennt.

Dar­aus resul­tiert ein zwei­stu­fi­ger Schätzprozess.

Stu­fe 1 gene­riert Sze­na­ri­en für Bank­aus­fäl­le mit einem geziel­ten Importance-Sam­pling-Ver­fah­ren. Der Sam­pler wird so kon­stru­iert, dass er sel­te­ne, sys­te­misch rele­van­te Aus­fall­kom­bi­na­tio­nen über­pro­por­tio­nal oft erzeugt – und die­se Über­re­prä­sen­ta­ti­on durch ent­spre­chen­de Gewich­tung im Schät­zer kor­ri­giert. Der Fokus liegt hier auf dem effi­zi­en­ten Abtas­ten des Ereig­nis­raums, nicht auf der Netz­werk­struk­tur selbst.

Stu­fe 2 löst für die in Stu­fe 1 erzeug­ten Sze­na­ri­en das Netz­werk-Fix­punkt­pro­blem. Aus den resul­tie­ren­den Zah­lungs­vek­to­ren wer­den die Anlei­he-Pay­offs bestimmt. Die Kom­ple­xi­tät der Netz­werk­dy­na­mik wird hier kon­zen­triert bear­bei­tet – aber nur für die Sze­na­ri­en, die in Stu­fe 1 als rele­vant selek­tiert wurden.

Das Split­ting-Ele­ment ergänzt die­ses Sche­ma: Pfa­de, die sich als beson­ders kri­tisch erwei­sen – also Sze­na­ri­en mit hohem Ver­lust­po­ten­zi­al –, wer­den ver­viel­facht und wei­ter­ver­folgt. Die­ses Ver­fah­ren ist aus der Zuver­läs­sig­keits­theo­rie bekannt; sei­ne Kom­bi­na­ti­on mit Importance Sam­pling in einem Netz­werk-Kre­dit­ri­si­ko­kon­text ist metho­disch neu.

Theo­re­ti­sche Eigenschaften

Die Autoren füh­ren zwei wesent­li­che theo­re­ti­sche Nachweise.

Ers­tens zei­gen sie Ska­lier­bar­keit: Die Rechen­kos­ten des Ver­fah­rens wach­sen mit der Netz­werk­grö­ße kon­trol­liert und nicht expo­nen­ti­ell. Das ist kei­ne Selbst­ver­ständ­lich­keit – vie­le Rare-Event-Metho­den ver­sa­gen gera­de dann, wenn die Dimen­si­on des Pro­blems steigt.

Zwei­tens wird asym­pto­ti­sche Opti­ma­li­tät nach­ge­wie­sen: Die Vari­anz des Schät­zers wächst opti­mal lang­sam, wenn die zu schät­zen­de Default-Wahr­schein­lich­keit klein wird. In der Fach­spra­che ent­spricht das einem Log­arith­misch-Effi­zi­enz-Ergeb­nis, das für eine Klas­se von Netz­werk-Default-Ereig­nis­sen gilt. Es sichert, dass der Effi­zi­enz­ge­winn gegen­über Stan­dard-Mon­te-Car­lo mit wach­sen­der Sel­ten­heit des Ereig­nis­ses nicht abnimmt, son­dern sta­bil bleibt.

Zusam­men­ge­nom­men über­win­den die­se Eigen­schaf­ten die zwei zen­tra­len Defi­zi­te der bis­he­ri­gen Ver­fah­ren: die Inef­fi­zi­enz nai­ver Simu­la­ti­on bei sel­te­nen Ereig­nis­sen und die feh­len­de Netz­werksen­si­ti­vi­tät klas­si­scher Rare-Event-Techniken.

Nume­ri­sche Ergebnisse

Die Metho­de wird auf empi­risch beob­ach­te­ten Finanz­netz­wer­ken getes­tet – rea­lis­ti­sche, kali­brier­te Inter­bank-Struk­tu­ren, nicht syn­the­ti­sche Spiel­zeug­mo­del­le. Die nume­ri­schen Stu­di­en zei­gen kon­sis­tent, dass Bond­wer­te und Ver­lust­ver­tei­lun­gen deut­lich effi­zi­en­ter und mit gerin­ge­rer Vari­anz geschätzt wer­den als mit Stan­dard-Mon­te-Car­lo. Beson­ders aus­ge­prägt ist der Vor­teil bei Mul­ti-Bank-Defaults – also den sys­te­misch rele­van­ten Sze­na­ri­en, um die es dem Ver­fah­ren metho­disch geht.

Ein­ord­nung: Zwi­schen Modell­theo­rie, Risi­ko­ma­nage­ment und Regulierung

Der Bei­trag ver­bin­det drei For­schungs­strän­ge, die bis­her weit­ge­hend getrennt neben­ein­an­der ste­hen: Netz­werk-Finanz­mo­del­le in der Tra­di­ti­on von Eisen­berg-Noe, moder­ne Rare-Event-Simu­la­ti­on aus der ange­wand­ten Wahr­schein­lich­keits­theo­rie und Kre­dit­ri­si­ko­mo­del­lie­rung für Anleihen.

Prak­tisch adres­siert die Metho­de eine kon­kre­te Bewer­tungs­fra­ge: Wie sind Cor­po­ra­te-Bond-Spreads kon­sis­tent zu bestim­men, wenn Netz­werk­ef­fek­te und sys­te­mi­sches Risi­ko die Rück­zah­lungs­struk­tur beein­flus­sen? Bis­he­ri­ge Stan­dard­mo­del­le, die Netz­werk­ab­hän­gig­kei­ten igno­rie­ren oder stark ver­ein­fa­chen, unter­schät­zen sys­te­mi­sche Risi­ko­prä­mi­en strukturell.

Für Risi­ko­ma­nage­ment und Regu­lie­rung ergibt sich ein hand­hab­ba­res Werk­zeug zur Simu­la­ti­on von Ver­lust­ver­tei­lun­gen und Stress­sze­na­ri­en in gro­ßen Ban­ken­netz­wer­ken. Stress­tests, die bis­lang auf stark ver­ein­fach­ten Netz­werk­an­nah­men beru­hen, könn­ten mit die­sem Ansatz prä­zi­ser wer­den – ohne pro­hi­bi­ti­ven Rechenaufwand.

Für die metho­di­sche For­schung bie­tet das Ver­fah­ren einen gene­ri­schen Bau­kas­ten: Die Bi-Level-Struk­tur lässt sich auf ande­re Kre­dit­ri­si­ko­mo­del­le mit Fix­punkt-Gleich­ge­wich­ten über­tra­gen und ist nicht auf das Eisen­berg-Noe-Frame­work beschränkt.

Die beschrie­be­ne Metho­de ist ein Bei­trag zur quan­ti­ta­ti­ven Finanz­ma­the­ma­tik an der Schnitt­stel­le von Netz­werk­theo­rie, sto­chas­ti­scher Simu­la­ti­on und Kre­dit­ri­si­ko­mo­del­lie­rung. Ihre prak­ti­sche Rele­vanz steht in einem Feld unter Beweis, in dem das Feh­len adäqua­ter Bewer­tungs­mo­del­le sys­te­mi­sche Risi­ken lan­ge unsicht­bar gehal­ten hat.