Getting your Trinity Audio player ready...
|
Künstliche Intelligenz verspricht Effizienz, doch zwischen algorithmischer Empfehlung und menschlicher Entscheidung entstehen Reibungsverluste. Ein Beitrag über die Transformation im Banking – und wie sich die Balance zwischen Maschine und Mensch neu justieren lässt, ohne an Qualität zu verlieren.
Der Bankberater starrt auf seinen Bildschirm. Das Risikomodell ist eindeutig: 85 Prozent Ausfallwahrscheinlichkeit für Kredite in Sektor X. Ein klares Signal. Doch dann klingelt das Telefon. Am anderen Ende ein Unternehmer, dessen Betrieb seit drei Generationen läuft, dessen Zahlen solide sind, der nur das Pech hat, in genau diesem Sektor tätig zu sein. Was nun? Kategorisches Nein, weil es der Algorithmus sagt? Oder individuelle Prüfung, weil der Mensch mehr sieht als Zahlen?
Diese Szene spielt sich täglich ab – in deutschen Bankfilialen, an Handelsplätzen, in Finanzberatungen. Sie markiert den neuralgischen Punkt einer Transformation, die weit mehr ist als bloße Digitalisierung. Es ist die Frage, wie objektive Modelle und subjektive Interpretation, wie maschinelle Intelligenz und menschliches Urteilsvermögen zueinander finden. Oder philosophisch ausgedrückt: Wie die Welten Karl Poppers – die Welt der objektiven Theorien (Welt3), die Welt des subjektiven Bewusstseins (Welt2) und die Welt der physischen Realität (Welt1) – im Banking ineinandergreifen.
Wenn Algorithmen auf Menschen treffen
Die Zahlen klingen vielversprechend. 2.200 von 6.000 Mitarbeitern bei der DZ Bank nutzen täglich KI-Tools. Oliver Wyman prognostiziert 30 bis 45 Prozent Kosteneinsparung durch KI-Chatbots bei gleichbleibender Kundenzufriedenheit. Doch zwischen Prognose und Praxis klafft eine Lücke, die sich nicht in Prozentpunkten messen lässt.
Ein Robo-Advisor empfiehlt einem 55-jährigen Kunden eine Portfolio-Allokation von 60 Prozent Aktien, 40 Prozent Anleihen. Standardempfehlung, algorithmisch optimiert, statistisch fundiert. Der Berater weiß jedoch: Der Kunde steht mitten in einer Scheidung, die Liquidität muss gesichert sein, emotionale Stabilität ist fragil. Die Empfehlung passt nicht. Also passt er an. Das System kategorisiert einen anderen Kunden als „konservativ”. Im Gespräch zeigt sich: Der Kunde ist risikobereit, nur schlecht informiert. Wieder eine Korrektur.
Diese Korrekturen sind keine Fehler im System – sie sind der systemische Normalfall. Denn …