Die Eidgenössische Finanzmarktaufsicht FINMA setzt künstliche Intelligenz ein, um ihre Aufsichtstätigkeit effizienter zu gestalten. Das klingt zeitgemäß. Doch eine Prüfung der Eidgenössischen Finanzkontrolle (EFK) offenbart ein Bild, das weniger von souveräner Modernisierung als von tastenden Versuchen geprägt ist. Die Befunde werfen eine grundsätzliche Frage auf: Können Finanzaufsichtsbehörden technologisch überhaupt Schritt halten – oder sind sie strukturell zum Hinterherhinken verurteilt?
Das Regulierer-Dilemma
Die FINMA nutzt KI-Werkzeuge für Datenanalyse, Marktbeobachtung und Transkriptionen. Mit einem Budget von 154 Millionen Schweizer Franken und 695 Mitarbeitern bewegt sie sich dabei in einer „initialen Phase”, wie es beschönigend heißt. Die EFK kritisiert fehlende Wirkungskontrollen und mangelnden Kompetenzaufbau. Anders formuliert: Die Behörde weiß nicht genau, ob ihre KI-Systeme funktionieren, und verfügt nicht über ausreichend Personal, das dies beurteilen könnte.
Hier zeigt sich ein Dilemma, das weit über Bern hinausreicht. Finanzaufsichtsbehörden sollen KI-Einsatz bei Banken kompetent bewerten, regulieren und gegebenenfalls sanktionieren. Wie aber soll eine Aufsicht glaubwürdig KI-Governance einfordern, wenn sie die eigenen Systeme nicht systematisch evaluiert? Die Asymmetrie zwischen Regulierer und Regulierten verschärft sich: Während Banken massiv in KI-Kapazitäten investieren – Umfragen sprechen von 78 Prozent Adoptionsrate –, kämpfen Aufsichtsbehörden mit Grundsatzfragen der eigenen digitalen Transformation.
Die Kompetenzlücke als Systemrisiko
Das Problem ist nicht neu, aber es verschärft sich exponentiell. Die Komplexität moderner Finanzsysteme übersteigt längst die Analysefähigkeit traditioneller Aufsichtsstrukturen. Algorithmischer Handel, automatisierte Kreditentscheidungen, KI-gestützte Risikomodelle – all dies erfordert Prüfkapazitäten, die Behörden schlicht nicht aufbauen können. Der Wettbewerb um KI-Talente ist für öffentliche Institutionen kaum zu gewinnen. Die Gehälter liegen zu weit auseinander, die Karriereperspektiven sind zu unterschiedlich.
Was bleibt, ist eine Aufsicht, die sich zunehmend auf Selbstauskünfte der Beaufsichtigten verlassen muss. Die EFK-Forderung nach mehr Wirkungskontrollen und Kompetenzaufbau bei der FINMA ist berechtigt, aber sie unterschätzt die strukturelle Dimension des Problems. Es geht nicht um operative Defizite, die sich durch besseres Management beheben ließen. Es geht um eine fundamentale Verschiebung der Machtverhältnisse zwischen Regulierern und Finanzindustrie.
Der Schweizer Sonderweg
Die Schweiz orientiert sich an ihrer Bundes-KI-Strategie, die deutlich prinzipienbasierter ausfällt als der EU AI Act mit seinen detaillierten Risikoklassifikationen und Compliance-Anforderungen. Ob dies Flexibilität oder Orientierungslosigkeit bedeutet, wird sich zeigen. Die FINMA muss jedenfalls einen Rahmen entwickeln, der sowohl für den eigenen KI-Einsatz als auch für die Beaufsichtigung von KI bei Banken tragfähig ist.
Der Schweizer Finanzplatz steht dabei vor einer doppelten Herausforderung: Einerseits soll er innovativ und wettbewerbsfähig bleiben, andererseits darf die Aufsicht nicht zum Papiertiger werden. Die aktuelle Situation, in der die FINMA KI-Systeme einsetzt, deren Wirksamkeit sie nicht belegen kann, ist für beides problematisch.
Parallelen zur BaFin
Die deutsche Bundesanstalt für Finanzdienstleistungsaufsicht kämpft mit ähnlichen Herausforderungen. Auch dort gibt es Digitalisierungsinitiativen, auch dort klafft eine Lücke zwischen Anspruch und Wirklichkeit. Die BaFin hat zwar personell aufgestockt, aber die Frage, ob sie komplexe KI-Modelle bei Banken wirklich durchdringen kann, bleibt offen. Die europäische Aufsichtsarchitektur mit EBA, ESMA und EIOPA fügt eine weitere Komplexitätsebene hinzu, löst aber das Grundproblem nicht.
Was auffällt: Die öffentliche Diskussion über KI in der Finanzbranche konzentriert sich fast ausschließlich auf die Anwenderseite. Welche Risiken entstehen, wenn Banken KI einsetzen? Diese Frage wird ausgiebig erörtert. Die komplementäre Frage – welche Risiken entstehen, wenn Aufsichtsbehörden technologisch nicht mithalten können – findet kaum Beachtung. Dabei ist sie möglicherweise die drängendere.
Die 78-Prozent-Frage
Die häufig zitierte Zahl, wonach 78 Prozent der Banken KI einsetzen, verdient kritische Betrachtung. Wie viel davon ist produktiver Einsatz mit messbarem Nutzen? Wie viel sind Pilotprojekte, die im Stadium des Experiments verharren? Und wie viel ist PR-getriebene Innovation, die mehr der Außendarstellung dient als der operativen Realität?
Die Diskrepanz zwischen Ankündigung und tatsächlicher Implementierung ist in der Finanzbranche notorisch. Wer die Geschichte der Blockchain-Euphorie, der Open-Banking-Versprechen oder der Robo-Advisor-Revolution verfolgt hat, weiß um die Halbwertszeit von Technologie-Narrativen im Bankensektor. Die KI-Adoption könnte diesem Muster folgen – mit dem Unterschied, dass diesmal sowohl die Potenziale als auch die Risiken größer sind.
Was folgt daraus?
Die EFK-Prüfung der FINMA ist mehr als ein Verwaltungsvorgang. Sie wirft ein Schlaglicht auf ein systemisches Problem der Finanzaufsicht im KI-Zeitalter. Die Forderungen nach Wirkungskontrollen und Kompetenzaufbau sind richtig, aber sie greifen zu kurz. Notwendig wäre eine grundsätzliche Debatte darüber, wie Finanzaufsicht unter Bedingungen technologischer Asymmetrie funktionieren kann.
Einige Ansätze werden diskutiert: verstärkte internationale Kooperation, Einbindung externer Expertise, regulatorische Sandboxes für den behördlichen KI-Einsatz. Ob sie ausreichen, ist fraglich. Die ehrliche Antwort lautet: Niemand weiß derzeit, wie eine Finanzaufsicht aussehen müsste, die mit der KI-Entwicklung Schritt hält. Die FINMA nicht, die BaFin nicht, und auch die europäischen Aufsichtsbehörden nicht.
Diese Unsicherheit einzugestehen wäre ein erster Schritt. Der zweite bestünde darin, die Konsequenzen zu ziehen: Wenn Aufsicht technologisch nicht mithalten kann, muss sie ihre Strategie ändern. Weniger Detailprüfung, mehr Prinzipienorientierung. Weniger Einzelfallkontrolle, mehr systemische Überwachung. Weniger Anspruch auf Vollständigkeit, mehr Konzentration auf wesentliche Risiken.
Die Alternative – so zu tun, als könne man mit ein bisschen mehr Budget und ein paar zusätzlichen Stellen die Lücke schließen – ist keine Strategie. Es ist Selbsttäuschung.
Quellen:
Inside IT Artikel: “KI-Systeme der FINMA unter der Lupe” – Detaillierte Analyse der EFK-Prüfung zu FINMA-KI-Nutzung. https://www.inside-it.ch/ki-systeme-der-finma-unter-der-lupe-20260109
EFK offizielle Seite: “Einsatz Künstlicher Intelligenz in der Aufsichtstätigkeit” – Vollständige Prüfungsbeschreibung mit Bewertung der FINMA-KI-Systeme.
https://www.efk.admin.ch/prufung/einsatz-kunstlicher-intelligenz-in-der-aufsichtstatigkeit/
Netzwoche: “4 von 5 Schweizer Banken führen schon KI ein” – EY-Barometer zeigt hohe KI-Adoption in Banken.
https://www.netzwoche.ch/news/2026–01-09/4‑von-5-schweizer-banken-fuehren-schon-ki-ein
LinkedIn Inside IT: Teaser zum FINMA-Artikel mit EFK-Details.
https://de.linkedin.com/posts/insideitch_ki-systeme-der-finma-unter-der-lupe-activity-7415403364479664128-PytY
Grant Thornton: “KI-Risiken im Finanzmarkt steuern” – Regulatorische Risiken und Governance-Empfehlungen.
https://www.grantthornton.ch/de/aktuelles/ki-risiken-finanzmarkt-regulierung/
Bonnard Lawson: “Swiss AI Regulation: What Every Company Should Know” – Überblick zu Schweizer KI-Regulierung.
https://www.bonnard-lawson.com/news/swiss-ai-regulation-what-every-company-should-know-in-2025/
