|
Getting your Trinity Audio player ready...
|
Ein aktuelles Forschungspapier stellt die etablierten Methoden der Risikoerfassung grundlegend in Frage – und präsentiert einen multivariaten Ansatz, der die blinden Flecken von Value-at-Risk und Expected Shortfall überwinden soll.
Die Risikomessung im Bankensektor folgt seit Jahren einer vermeintlich bewährten Logik: Komplexe Portfolios werden auf einzelne Kennzahlen verdichtet, die Aufsichtsbehörden, Vorständen und Investoren als Entscheidungsgrundlage dienen. Value-at-Risk und Expected Shortfall haben sich dabei als Standardinstrumente etabliert, regulatorisch verankert und in der Praxis omnipräsent. Doch was diese skalaren Maße an Übersichtlichkeit gewinnen, verlieren sie an Aussagekraft – eine Erkenntnis, die das Forschungspapier von Bonollo, Grasselli, Mori und Oz nun systematisch aufarbeitet.
Die Kritik der Autoren setzt am Grundprinzip an: Eine einzelne Zahl, sei sie noch so sorgfältig kalkuliert, kann die multivariate Natur von Finanzrisiken nicht abbilden. Der Value-at-Risk markiert eine Verlustobergrenze für ein bestimmtes Konfidenzniveau, der Expected Shortfall beziffert den durchschnittlichen Verlust jenseits dieser Schwelle. Beide Maße ignorieren jedoch, wie verschiedene Verlustquellen miteinander interagieren, wie sich Abhängigkeiten in Stressphasen verändern und wie sich Extremereignisse über unterschiedliche Risikofaktoren verteilen. Das Resultat ist ein Risikobild, das zwar handhabbar erscheint, aber wesentliche Strukturinformationen unterschlägt.
Der von den Forschern vorgeschlagene Magnitude-Propensity Approach verfolgt einen grundlegend anderen Weg. Aufbauend auf theoretischen Vorarbeiten von Faugeras und Pagés integriert er zwei Dimensionen in einem kohärenten Rahmen: die Größe potenzieller Verluste und die Neigung zu deren Eintreten. Diese Verbindung erlaubt eine differenziertere Charakterisierung von Extremereignissen, als sie der traditionelle Frequenz-Schwere-Ansatz ermöglicht, der Häufigkeit und Umfang von Verlusten typischerweise getrennt behandelt.
Die praktische Relevanz des Ansatzes ergibt sich aus seiner Fähigkeit, Interaktionen zwischen Risikofaktoren präziser zu erfassen. Gerade in Krisensituationen, wenn Korrelationen sprunghaft ansteigen und historische Muster ihre Gültigkeit verlieren, liefert eine multivariate Perspektive entscheidende Zusatzinformationen. Die Autoren demonstrieren dies anhand empirischer Anwendungen mit realen Finanzdaten.
Dass erhöhte Komplexität nicht zwangsläufig mit praktischer Unbrauchbarkeit einhergeht, betonen die Forscher ausdrücklich. Das Modell wahre seine Interpretierbarkeit und analytische Kohärenz – Eigenschaften, ohne die eine Methodik weder regulatorische Akzeptanz noch operative Anwendung finden kann. Risikokommunikation erfordert Verständlichkeit; ein Modell, das nur von Spezialisten durchdrungen wird, verfehlt seinen Zweck.
Die Implikationen reichen über die technische Ebene hinaus. Wenn etablierte Risikomaße systematisch Informationen unterschlagen, dann basieren auch die darauf aufbauenden Entscheidungen auf unvollständiger Grundlage – von der regulatorischen Kapitalplanung bis zur strategischen Portfoliosteuerung. Der Magnitude-Propensity Approach verspricht hier ein ganzheitlicheres Verständnis, das sowohl aufsichtsrechtlichen Anforderungen als auch internen Managemententscheidungen zugutekommen könnte.
Ob sich ein solcher Ansatz in der Praxis durchsetzt, wird nicht zuletzt davon abhängen, wie bereitwillig Banken und Regulierer die Komplexitätskosten gegen den Informationsgewinn abwägen. Die Forschung von Bonollo und Kollegen liefert zumindest das theoretische und empirische Fundament für diese Abwägung.
