Von Ralf Keuper
Mit dem Bank­ge­schäft gehen Risi­ken ein­her, die in der Natur der Sache lie­gen. Gemeint sind damit vor­ran­gig die Kre­dit­ri­si­ken. In der Finanz­kri­se wur­de deut­lich, dass die Liqui­di­täts­ri­si­ken in ihrer Wir­kung bis dahin unter­schätzt wur­den. Mitt­ler­wei­le ist eine wei­te­re Risi­ko­ka­te­go­rie hin­zu gekom­men, die in gewis­ser Hin­sicht die Nach­fol­ge der Liqui­di­täts­ri­si­ken antre­ten könn­te. Dabei han­delt es sich um die Tech­no­lo­gie­ri­si­ken, die für gewöhn­lich zu den Ope­ra­ti­ven Risi­ken gezählt wer­den. Es sieht so aus, als hät­ten wir im Bereich des Algo-Tra­ding eine Pha­se erreicht, die gro­ße Ähn­lich­keit mit den Risi­ken hat, die man bis­her mit den klas­si­schen Hoch­tech­no­lo­gien, wie der Kern­ener­gie, asso­zi­iert hat. Wäh­rend der Finanz­kri­se war oft von der “Kern­schmel­ze des inter­na­tio­na­len Finanz­mark­tes” zu hören und zu lesen. 
In der Ver­gan­gen­heit haben sich immer wie­der mah­nen­de Stim­men erho­ben, die auf die (expo­nen­ti­ell) wach­sen­den Tech­no­lo­gie­ri­si­ken hin­wei­sen. Eine der ers­ten war die von V.K. Shar­ma, der in dem Zusam­men­hang von der Hebel­wir­kung der Tech­no­lo­gie im Ban­king spricht. Fast schon legen­där ist der Ver­lust von Knight Capi­tal, die wegen eines “Soft­ware­feh­lers” inner­halb von 45 Minu­ten 440 Mil­lio­nen Dol­lar verloren. 
Nun stösst Mark Gor­ton, Grün­der von Tower Rese­arch Capi­tal, in High-fre­quen­cy trader warns of poten­ti­al mar­ket ‘cata­stro­phe’ in das­sel­be Horn. Dar­in for­dert er ein regu­la­to­ri­sches Rah­men­werk, das dafür sorgt, dass Aus­fäl­le, Mani­pu­la­tio­nen oder schlicht Feh­ler (Updates, Prei­se) kei­ne Ket­ten­re­ak­tio­nen aus­lö­sen kön­nen, die zu einer Kern­schmel­ze füh­ren. Hier­für sei­en red­un­dan­te Ver­fah­ren und Rechen­ka­pa­zi­tä­ten nötig. Der­zeit sieht er auf die­sem Gebiet deut­li­che Män­gel, die mit der Gefahr gro­ßer Tur­bu­len­zen auf den Märk­ten ein­her gehen. 
Gor­ton spricht einen heik­len Punkt an. Ab wann kön­nen sich die Sys­te­me oder Algo­rith­men ver­selb­stän­di­gen und im Extrem­fall eine Finanz­kri­se aus­lö­sen? Wel­che prä­ven­ti­ven Maß­nah­men müss­ten dafür getrof­fen werden?
Niklas Luh­mann schreibt in sei­nem Buch Die Sozio­lo­gie des Risi­kos in dem Kapi­tel Der Son­der­fall Hoch­tech­no­lo­gie:

Die Tech­nik hat kei­ne Gren­zen, sie ist eine Gren­ze; und sie mag letzt­lich nicht an der Natur, son­dern an sich sel­ber schei­tern. Das muss jedoch nicht unter­gangs­pes­si­mis­tisch ver­stan­den wer­den. Man könn­te genau­so­gut sagen: die Tech­nik kann sich nur sel­ber hel­fen, und die erkenn­ba­re Ten­denz lässt dafür mehr Risi­ken und Chan­cen erkennen. 

An einer ande­ren Stel­le in dem Buch schreibt Luh­mann jedoch:

Der Ver­such, sich gegen Risi­ken der Tech­nik durch Tech­nik zu schüt­zen, stößt offen­bar an Schran­ken.

Die bes­te Prä­ven­ti­ons­stra­te­gie, die geeig­nets­ten Stil­mit­tel schei­nen mir Red­un­danz und Modu­la­ri­tät zu sein. Es wäre zu über­le­gen, ob und inwie­weit die Bio­nik hier Hil­fe­stel­lun­gen leis­ten kann. 

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert