Von Ralf Keuper
Mit dem Bankgeschäft gehen Risiken einher, die in der Natur der Sache liegen. Gemeint sind damit vorrangig die Kreditrisiken. In der Finanzkrise wurde deutlich, dass die Liquiditätsrisiken in ihrer Wirkung bis dahin unterschätzt wurden. Mittlerweile ist eine weitere Risikokategorie hinzu gekommen, die in gewisser Hinsicht die Nachfolge der Liquiditätsrisiken antreten könnte. Dabei handelt es sich um die Technologierisiken, die für gewöhnlich zu den Operativen Risiken gezählt werden. Es sieht so aus, als hätten wir im Bereich des Algo-Trading eine Phase erreicht, die große Ähnlichkeit mit den Risiken hat, die man bisher mit den klassischen Hochtechnologien, wie der Kernenergie, assoziiert hat. Während der Finanzkrise war oft von der “Kernschmelze des internationalen Finanzmarktes” zu hören und zu lesen.
In der Vergangenheit haben sich immer wieder mahnende Stimmen erhoben, die auf die (exponentiell) wachsenden Technologierisiken hinweisen. Eine der ersten war die von V.K. Sharma, der in dem Zusammenhang von der Hebelwirkung der Technologie im Banking spricht. Fast schon legendär ist der Verlust von Knight Capital, die wegen eines “Softwarefehlers” innerhalb von 45 Minuten 440 Millionen Dollar verloren.
Nun stösst Mark Gorton, Gründer von Tower Research Capital, in High-frequency trader warns of potential market ‘catastrophe’ in dasselbe Horn. Darin fordert er ein regulatorisches Rahmenwerk, das dafür sorgt, dass Ausfälle, Manipulationen oder schlicht Fehler (Updates, Preise) keine Kettenreaktionen auslösen können, die zu einer Kernschmelze führen. Hierfür seien redundante Verfahren und Rechenkapazitäten nötig. Derzeit sieht er auf diesem Gebiet deutliche Mängel, die mit der Gefahr großer Turbulenzen auf den Märkten einher gehen.
Gorton spricht einen heiklen Punkt an. Ab wann können sich die Systeme oder Algorithmen verselbständigen und im Extremfall eine Finanzkrise auslösen? Welche präventiven Maßnahmen müssten dafür getroffen werden?
Niklas Luhmann schreibt in seinem Buch Die Soziologie des Risikos in dem Kapitel Der Sonderfall Hochtechnologie:
Die Technik hat keine Grenzen, sie ist eine Grenze; und sie mag letztlich nicht an der Natur, sondern an sich selber scheitern. Das muss jedoch nicht untergangspessimistisch verstanden werden. Man könnte genausogut sagen: die Technik kann sich nur selber helfen, und die erkennbare Tendenz lässt dafür mehr Risiken und Chancen erkennen.
An einer anderen Stelle in dem Buch schreibt Luhmann jedoch:
Der Versuch, sich gegen Risiken der Technik durch Technik zu schützen, stößt offenbar an Schranken.
Die beste Präventionsstrategie, die geeignetsten Stilmittel scheinen mir Redundanz und Modularität zu sein. Es wäre zu überlegen, ob und inwieweit die Bionik hier Hilfestellungen leisten kann.