Getting your Trinity Audio player ready...

Ein aktu­el­les For­schungs­pa­pier stellt die eta­blier­ten Metho­den der Risi­koer­fas­sung grund­le­gend in Fra­ge – und prä­sen­tiert einen mul­ti­va­ria­ten Ansatz, der die blin­den Fle­cken von Value-at-Risk und Expec­ted Short­fall über­win­den soll.


Die Risi­ko­mes­sung im Ban­ken­sek­tor folgt seit Jah­ren einer ver­meint­lich bewähr­ten Logik: Kom­ple­xe Port­fo­li­os wer­den auf ein­zel­ne Kenn­zah­len ver­dich­tet, die Auf­sichts­be­hör­den, Vor­stän­den und Inves­to­ren als Ent­schei­dungs­grund­la­ge die­nen. Value-at-Risk und Expec­ted Short­fall haben sich dabei als Stan­dard­in­stru­men­te eta­bliert, regu­la­to­risch ver­an­kert und in der Pra­xis omni­prä­sent. Doch was die­se ska­la­ren Maße an Über­sicht­lich­keit gewin­nen, ver­lie­ren sie an Aus­sa­ge­kraft – eine Erkennt­nis, die das For­schungs­pa­pier von Bonol­lo, Gras­sel­li, Mori und Oz nun sys­te­ma­tisch aufarbeitet.

Die Kri­tik der Autoren setzt am Grund­prin­zip an: Eine ein­zel­ne Zahl, sei sie noch so sorg­fäl­tig kal­ku­liert, kann die mul­ti­va­ria­te Natur von Finanz­ri­si­ken nicht abbil­den. Der Value-at-Risk mar­kiert eine Ver­lust­ober­gren­ze für ein bestimm­tes Kon­fi­denz­ni­veau, der Expec­ted Short­fall bezif­fert den durch­schnitt­li­chen Ver­lust jen­seits die­ser Schwel­le. Bei­de Maße igno­rie­ren jedoch, wie ver­schie­de­ne Ver­lust­quel­len mit­ein­an­der inter­agie­ren, wie sich Abhän­gig­kei­ten in Stress­pha­sen ver­än­dern und wie sich Extrem­ereig­nis­se über unter­schied­li­che Risi­ko­fak­to­ren ver­tei­len. Das Resul­tat ist ein Risi­ko­bild, das zwar hand­hab­bar erscheint, aber wesent­li­che Struk­tur­in­for­ma­tio­nen unterschlägt.

Der von den For­schern vor­ge­schla­ge­ne Magni­tu­de-Pro­pen­si­ty Approach ver­folgt einen grund­le­gend ande­ren Weg. Auf­bau­end auf theo­re­ti­schen Vor­ar­bei­ten von Fau­ge­ras und Pagés inte­griert er zwei Dimen­sio­nen in einem kohä­ren­ten Rah­men: die Grö­ße poten­zi­el­ler Ver­lus­te und die Nei­gung zu deren Ein­tre­ten. Die­se Ver­bin­dung erlaubt eine dif­fe­ren­zier­te­re Cha­rak­te­ri­sie­rung von Extrem­ereig­nis­sen, als sie der tra­di­tio­nel­le Fre­quenz-Schwe­re-Ansatz ermög­licht, der Häu­fig­keit und Umfang von Ver­lus­ten typi­scher­wei­se getrennt behandelt.

Die prak­ti­sche Rele­vanz des Ansat­zes ergibt sich aus sei­ner Fähig­keit, Inter­ak­tio­nen zwi­schen Risi­ko­fak­to­ren prä­zi­ser zu erfas­sen. Gera­de in Kri­sen­si­tua­tio­nen, wenn Kor­re­la­tio­nen sprung­haft anstei­gen und his­to­ri­sche Mus­ter ihre Gül­tig­keit ver­lie­ren, lie­fert eine mul­ti­va­ria­te Per­spek­ti­ve ent­schei­den­de Zusatz­in­for­ma­tio­nen. Die Autoren demons­trie­ren dies anhand empi­ri­scher Anwen­dun­gen mit rea­len Finanzdaten.

Dass erhöh­te Kom­ple­xi­tät nicht zwangs­läu­fig mit prak­ti­scher Unbrauch­bar­keit ein­her­geht, beto­nen die For­scher aus­drück­lich. Das Modell wah­re sei­ne Inter­pre­tier­bar­keit und ana­ly­ti­sche Kohä­renz – Eigen­schaf­ten, ohne die eine Metho­dik weder regu­la­to­ri­sche Akzep­tanz noch ope­ra­ti­ve Anwen­dung fin­den kann. Risi­ko­kom­mu­ni­ka­ti­on erfor­dert Ver­ständ­lich­keit; ein Modell, das nur von Spe­zia­lis­ten durch­drun­gen wird, ver­fehlt sei­nen Zweck.

Die Impli­ka­tio­nen rei­chen über die tech­ni­sche Ebe­ne hin­aus. Wenn eta­blier­te Risi­ko­ma­ße sys­te­ma­tisch Infor­ma­tio­nen unter­schla­gen, dann basie­ren auch die dar­auf auf­bau­en­den Ent­schei­dun­gen auf unvoll­stän­di­ger Grund­la­ge – von der regu­la­to­ri­schen Kapi­tal­pla­nung bis zur stra­te­gi­schen Port­fo­lio­steue­rung. Der Magni­tu­de-Pro­pen­si­ty Approach ver­spricht hier ein ganz­heit­li­che­res Ver­ständ­nis, das sowohl auf­sichts­recht­li­chen Anfor­de­run­gen als auch inter­nen Manage­men­tent­schei­dun­gen zugu­te­kom­men könnte.

Ob sich ein sol­cher Ansatz in der Pra­xis durch­setzt, wird nicht zuletzt davon abhän­gen, wie bereit­wil­lig Ban­ken und Regu­lie­rer die Kom­ple­xi­täts­kos­ten gegen den Infor­ma­ti­ons­ge­winn abwä­gen. Die For­schung von Bonol­lo und Kol­le­gen lie­fert zumin­dest das theo­re­ti­sche und empi­ri­sche Fun­da­ment für die­se Abwägung.