Die Eid­ge­nös­si­sche Finanz­markt­auf­sicht FINMA setzt künst­li­che Intel­li­genz ein, um ihre Auf­sichts­tä­tig­keit effi­zi­en­ter zu gestal­ten. Das klingt zeit­ge­mäß. Doch eine Prü­fung der Eid­ge­nös­si­schen Finanz­kon­trol­le (EFK) offen­bart ein Bild, das weni­ger von sou­ve­rä­ner Moder­ni­sie­rung als von tas­ten­den Ver­su­chen geprägt ist. Die Befun­de wer­fen eine grund­sätz­li­che Fra­ge auf: Kön­nen Finanz­auf­sichts­be­hör­den tech­no­lo­gisch über­haupt Schritt hal­ten – oder sind sie struk­tu­rell zum Hin­ter­her­hin­ken verurteilt?


Das Regu­lie­rer-Dilem­ma

Die FINMA nutzt KI-Werk­zeu­ge für Daten­ana­ly­se, Markt­be­ob­ach­tung und Tran­skrip­tio­nen. Mit einem Bud­get von 154 Mil­lio­nen Schwei­zer Fran­ken und 695 Mit­ar­bei­tern bewegt sie sich dabei in einer „initia­len Pha­se”, wie es beschö­ni­gend heißt. Die EFK kri­ti­siert feh­len­de Wir­kungs­kon­trol­len und man­geln­den Kom­pe­tenz­auf­bau. Anders for­mu­liert: Die Behör­de weiß nicht genau, ob ihre KI-Sys­te­me funk­tio­nie­ren, und ver­fügt nicht über aus­rei­chend Per­so­nal, das dies beur­tei­len könnte.

Hier zeigt sich ein Dilem­ma, das weit über Bern hin­aus­reicht. Finanz­auf­sichts­be­hör­den sol­len KI-Ein­satz bei Ban­ken kom­pe­tent bewer­ten, regu­lie­ren und gege­be­nen­falls sank­tio­nie­ren. Wie aber soll eine Auf­sicht glaub­wür­dig KI-Gover­nan­ce ein­for­dern, wenn sie die eige­nen Sys­te­me nicht sys­te­ma­tisch eva­lu­iert? Die Asym­me­trie zwi­schen Regu­lie­rer und Regu­lier­ten ver­schärft sich: Wäh­rend Ban­ken mas­siv in KI-Kapa­zi­tä­ten inves­tie­ren – Umfra­gen spre­chen von 78 Pro­zent Adop­ti­ons­ra­te –, kämp­fen Auf­sichts­be­hör­den mit Grund­satz­fra­gen der eige­nen digi­ta­len Transformation.

Die Kom­pe­tenz­lü­cke als Systemrisiko

Das Pro­blem ist nicht neu, aber es ver­schärft sich expo­nen­ti­ell. Die Kom­ple­xi­tät moder­ner Finanz­sys­te­me über­steigt längst die Ana­ly­se­fä­hig­keit tra­di­tio­nel­ler Auf­sichts­struk­tu­ren. Algo­rith­mi­scher Han­del, auto­ma­ti­sier­te Kre­dit­ent­schei­dun­gen, KI-gestütz­te Risi­ko­mo­del­le – all dies erfor­dert Prüf­ka­pa­zi­tä­ten, die Behör­den schlicht nicht auf­bau­en kön­nen. Der Wett­be­werb um KI-Talen­te ist für öffent­li­che Insti­tu­tio­nen kaum zu gewin­nen. Die Gehäl­ter lie­gen zu weit aus­ein­an­der, die Kar­rie­re­per­spek­ti­ven sind zu unterschiedlich.

Was bleibt, ist eine Auf­sicht, die sich zuneh­mend auf Selbst­aus­künf­te der Beauf­sich­tig­ten ver­las­sen muss. Die EFK-For­de­rung nach mehr Wir­kungs­kon­trol­len und Kom­pe­tenz­auf­bau bei der FINMA ist berech­tigt, aber sie unter­schätzt die struk­tu­rel­le Dimen­si­on des Pro­blems. Es geht nicht um ope­ra­ti­ve Defi­zi­te, die sich durch bes­se­res Manage­ment behe­ben lie­ßen. Es geht um eine fun­da­men­ta­le Ver­schie­bung der Macht­ver­hält­nis­se zwi­schen Regu­lie­rern und Finanzindustrie.

Der Schwei­zer Sonderweg

Die Schweiz ori­en­tiert sich an ihrer Bun­des-KI-Stra­te­gie, die deut­lich prin­zi­pi­en­ba­sier­ter aus­fällt als der EU AI Act mit sei­nen detail­lier­ten Risi­koklas­si­fi­ka­tio­nen und Com­pli­ance-Anfor­de­run­gen. Ob dies Fle­xi­bi­li­tät oder Ori­en­tie­rungs­lo­sig­keit bedeu­tet, wird sich zei­gen. Die FINMA muss jeden­falls einen Rah­men ent­wi­ckeln, der sowohl für den eige­nen KI-Ein­satz als auch für die Beauf­sich­ti­gung von KI bei Ban­ken trag­fä­hig ist.

Der Schwei­zer Finanz­platz steht dabei vor einer dop­pel­ten Her­aus­for­de­rung: Einer­seits soll er inno­va­tiv und wett­be­werbs­fä­hig blei­ben, ande­rer­seits darf die Auf­sicht nicht zum Papier­ti­ger wer­den. Die aktu­el­le Situa­ti­on, in der die FINMA KI-Sys­te­me ein­setzt, deren Wirk­sam­keit sie nicht bele­gen kann, ist für bei­des problematisch.

Par­al­le­len zur BaFin

Die deut­sche Bun­des­an­stalt für Finanz­dienst­leis­tungs­auf­sicht kämpft mit ähn­li­chen Her­aus­for­de­run­gen. Auch dort gibt es Digi­ta­li­sie­rungs­in­itia­ti­ven, auch dort klafft eine Lücke zwi­schen Anspruch und Wirk­lich­keit. Die BaFin hat zwar per­so­nell auf­ge­stockt, aber die Fra­ge, ob sie kom­ple­xe KI-Model­le bei Ban­ken wirk­lich durch­drin­gen kann, bleibt offen. Die euro­päi­sche Auf­sichts­ar­chi­tek­tur mit EBA, ESMA und EIOPA fügt eine wei­te­re Kom­ple­xi­täts­ebe­ne hin­zu, löst aber das Grund­pro­blem nicht.

Was auf­fällt: Die öffent­li­che Dis­kus­si­on über KI in der Finanz­bran­che kon­zen­triert sich fast aus­schließ­lich auf die Anwen­der­sei­te. Wel­che Risi­ken ent­ste­hen, wenn Ban­ken KI ein­set­zen? Die­se Fra­ge wird aus­gie­big erör­tert. Die kom­ple­men­tä­re Fra­ge – wel­che Risi­ken ent­ste­hen, wenn Auf­sichts­be­hör­den tech­no­lo­gisch nicht mit­hal­ten kön­nen – fin­det kaum Beach­tung. Dabei ist sie mög­li­cher­wei­se die drängendere.

Die 78-Pro­zent-Fra­ge

Die häu­fig zitier­te Zahl, wonach 78 Pro­zent der Ban­ken KI ein­set­zen, ver­dient kri­ti­sche Betrach­tung. Wie viel davon ist pro­duk­ti­ver Ein­satz mit mess­ba­rem Nut­zen? Wie viel sind Pilot­pro­jek­te, die im Sta­di­um des Expe­ri­ments ver­har­ren? Und wie viel ist PR-getrie­be­ne Inno­va­ti­on, die mehr der Außen­dar­stel­lung dient als der ope­ra­ti­ven Realität?

Die Dis­kre­panz zwi­schen Ankün­di­gung und tat­säch­li­cher Imple­men­tie­rung ist in der Finanz­bran­che noto­risch. Wer die Geschich­te der Block­chain-Eupho­rie, der Open-Ban­king-Ver­spre­chen oder der Robo-Advi­sor-Revo­lu­ti­on ver­folgt hat, weiß um die Halb­werts­zeit von Tech­no­lo­gie-Nar­ra­ti­ven im Ban­ken­sek­tor. Die KI-Adop­ti­on könn­te die­sem Mus­ter fol­gen – mit dem Unter­schied, dass dies­mal sowohl die Poten­zia­le als auch die Risi­ken grö­ßer sind.

Was folgt daraus?

Die EFK-Prü­fung der FINMA ist mehr als ein Ver­wal­tungs­vor­gang. Sie wirft ein Schlag­licht auf ein sys­te­mi­sches Pro­blem der Finanz­auf­sicht im KI-Zeit­al­ter. Die For­de­run­gen nach Wir­kungs­kon­trol­len und Kom­pe­tenz­auf­bau sind rich­tig, aber sie grei­fen zu kurz. Not­wen­dig wäre eine grund­sätz­li­che Debat­te dar­über, wie Finanz­auf­sicht unter Bedin­gun­gen tech­no­lo­gi­scher Asym­me­trie funk­tio­nie­ren kann.

Eini­ge Ansät­ze wer­den dis­ku­tiert: ver­stärk­te inter­na­tio­na­le Koope­ra­ti­on, Ein­bin­dung exter­ner Exper­ti­se, regu­la­to­ri­sche Sand­bo­xes für den behörd­li­chen KI-Ein­satz. Ob sie aus­rei­chen, ist frag­lich. Die ehr­li­che Ant­wort lau­tet: Nie­mand weiß der­zeit, wie eine Finanz­auf­sicht aus­se­hen müss­te, die mit der KI-Ent­wick­lung Schritt hält. Die FINMA nicht, die BaFin nicht, und auch die euro­päi­schen Auf­sichts­be­hör­den nicht.

Die­se Unsi­cher­heit ein­zu­ge­ste­hen wäre ein ers­ter Schritt. Der zwei­te bestün­de dar­in, die Kon­se­quen­zen zu zie­hen: Wenn Auf­sicht tech­no­lo­gisch nicht mit­hal­ten kann, muss sie ihre Stra­te­gie ändern. Weni­ger Detail­prü­fung, mehr Prin­zi­pi­en­ori­en­tie­rung. Weni­ger Ein­zel­fall­kon­trol­le, mehr sys­te­mi­sche Über­wa­chung. Weni­ger Anspruch auf Voll­stän­dig­keit, mehr Kon­zen­tra­ti­on auf wesent­li­che Risiken.

Die Alter­na­ti­ve – so zu tun, als kön­ne man mit ein biss­chen mehr Bud­get und ein paar zusätz­li­chen Stel­len die Lücke schlie­ßen – ist kei­ne Stra­te­gie. Es ist Selbsttäuschung.


Quel­len: 

Insi­de IT Arti­kel: “KI-Sys­te­me der FINMA unter der Lupe” – Detail­lier­te Ana­ly­se der EFK-Prü­fung zu FIN­MA-KI-Nut­zung. https://www.inside-it.ch/ki-systeme-der-finma-unter-der-lupe-20260109

EFK offi­zi­el­le Sei­te: “Ein­satz Künst­li­cher Intel­li­genz in der Auf­sichts­tä­tig­keit” – Voll­stän­di­ge Prü­fungs­be­schrei­bung mit Bewer­tung der FINMA-KI-Systeme.
https://www.efk.admin.ch/prufung/einsatz-kunstlicher-intelligenz-in-der-aufsichtstatigkeit/

Netz­wo­che: “4 von 5 Schwei­zer Ban­ken füh­ren schon KI ein” – EY-Baro­me­ter zeigt hohe KI-Adop­ti­on in Banken.
https://www.netzwoche.ch/news/2026–01-09/4‑von-5-schweizer-banken-fuehren-schon-ki-ein

Lin­ke­dIn Insi­de IT: Teaser zum FIN­MA-Arti­kel mit EFK-Details.
https://de.linkedin.com/posts/insideitch_ki-systeme-der-finma-unter-der-lupe-activity-7415403364479664128-PytY

Grant Thorn­ton: “KI-Risi­ken im Finanz­markt steu­ern” – Regu­la­to­ri­sche Risi­ken und Governance-Empfehlungen.
https://www.grantthornton.ch/de/aktuelles/ki-risiken-finanzmarkt-regulierung/

Bon­nard Law­son: “Swiss AI Regu­la­ti­on: What Every Com­pa­ny Should Know” – Über­blick zu Schwei­zer KI-Regulierung.
https://www.bonnard-lawson.com/news/swiss-ai-regulation-what-every-company-should-know-in-2025/