Getting your Trinity Audio player ready...

Künst­li­che Intel­li­genz revo­lu­tio­niert die Finanz­bran­che, doch neue For­schun­gen offen­ba­ren ein beun­ru­hi­gen­des Pro­blem: Lar­ge Lan­guage Models sind alles ande­re als objek­tiv. Ihre ein­ge­bau­ten Prä­fe­ren­zen kön­nen Inves­ti­ti­ons­ent­schei­dun­gen ver­zer­ren und zu Emp­feh­lun­gen füh­ren, die nicht den Absich­ten der Nut­zer ent­spre­chen. Eine aktu­el­le Stu­die deckt auf, wie tief die­se Vor­ein­ge­nom­men­heit ver­wur­zelt ist.

Die Finanz­welt steht vor einem Para­dox: Wäh­rend Lar­ge Lan­guage Models (LLMs) zuneh­mend für Inves­ti­ti­ons­ana­ly­sen ein­ge­setzt wer­den, zeigt sich, dass die­se ver­meint­lich objek­ti­ven Sys­te­me ihre eige­nen, oft unsicht­ba­ren Prä­fe­ren­zen mit­brin­gen. Eine neue Unter­su­chung ent­hüllt das Aus­maß die­ser Pro­ble­ma­tik und wirft fun­da­men­ta­le Fra­gen über die Ver­trau­ens­wür­dig­keit KI-gestütz­ter Finanz­dienst­leis­tun­gen auf[1]Your AI, Not Your View: The Bias of LLMs in Invest­ment Ana­ly­sis.


Das Pro­blem der algo­rith­mi­schen Voreingenommenheit

Die Her­aus­for­de­rung beginnt dort, wo das vor­trai­nier­te Wis­sen der Model­le auf aktu­el­le Markt­da­ten trifft. In die­sen Kon­flikt­si­tua­tio­nen offen­ba­ren LLMs sys­te­ma­ti­sche Ver­zer­run­gen, die in rea­len Finanz­an­wen­dun­gen zu unzu­ver­läs­si­gen Emp­feh­lun­gen füh­ren kön­nen. Die Trag­wei­te die­ses Pro­blems wird erst jetzt durch sys­te­ma­ti­sche For­schung sichtbar.

Die Stu­die ver­folgt drei zen­tra­le For­schungs­fra­gen: Wel­che intrin­si­schen Prä­fe­ren­zen besit­zen LLMs bezüg­lich finan­zi­el­ler Fak­to­ren wie Sek­tor, Unter­neh­mens­grö­ße und Markt­mo­men­tum? Wie mani­fes­tie­ren sich die­se Prä­fe­ren­zen als Bestä­ti­gungs­feh­ler, wenn die Model­le mit wider­sprüch­li­chen Infor­ma­tio­nen kon­fron­tiert wer­den? Und schließ­lich: Wel­che Aus­wir­kun­gen haben die­se Ver­zer­run­gen auf die prak­ti­sche Anwen­dung in der Finanzwelt?

Metho­di­sche Ent­hül­lung ver­steck­ter Präferenzen

Um die­se Fra­gen zu beant­wor­ten, ent­wi­ckel­ten die For­scher einen inno­va­ti­ven drei­pha­si­gen expe­ri­men­tel­len Ansatz. Zunächst erstell­ten sie aus­ge­wo­ge­ne Argu­men­ta­ti­ons­mus­ter, die sowohl posi­ti­ve als auch nega­ti­ve Aspek­te ver­schie­de­ner Akti­en beleuch­te­ten. In der zwei­ten Pha­se kon­fron­tier­ten sie die Model­le gezielt mit wider­sprüch­li­chen Infor­ma­tio­nen, um deren Prä­fe­ren­zen zu ent­hül­len. Abschlie­ßend tes­te­ten sie die Wider­stands­fä­hig­keit der Model­le gegen gegen­tei­li­ge Beweise.

Die­se metho­di­sche Her­an­ge­hens­wei­se ermög­lich­te es, die meist ver­bor­ge­nen Nei­gun­gen der KI-Sys­te­me sys­te­ma­tisch zu doku­men­tie­ren und zu ana­ly­sie­ren. Die Ergeb­nis­se über­ra­schen durch ihre Deut­lich­keit und Konsistenz.

Über­ra­schen­de Befun­de: Von Sek­tor­vor­lie­ben bis Größenbias

Die Unter­su­chung för­der­te bemer­kens­wer­te Mus­ter zuta­ge. Bei den Sek­tor­prä­fe­ren­zen zeig­ten ver­schie­de­ne Model­le unter­schied­li­che, aber kon­sis­ten­te Nei­gun­gen zu bestimm­ten Bran­chen wie Tech­no­lo­gie oder Ener­gie. Noch aus­ge­präg­ter war die Grö­ßen­prä­fe­renz: Die über­wie­gen­de Mehr­zahl der Model­le favo­ri­sier­te sys­te­ma­tisch Lar­ge-Cap-Akti­en gro­ßer Unter­neh­men und ver­nach­läs­sig­te dabei Small-Cap-Werte.

Beson­ders auf­schluss­reich erwies sich die Ana­ly­se von Anla­ge­stra­te­gien. Ent­ge­gen der oft momen­tum-getrie­be­nen Natur der Finanz­märk­te zeig­ten die LLMs eine kon­sis­ten­te Prä­fe­renz für Con­tra­ri­an-Stra­te­gien – also die Ten­denz, in ver­meint­lich unter­be­wer­te­te Akti­en zu inves­tie­ren, anstatt auf trend­star­ke Wer­te zu setzen.

Der Teu­fels­kreis der Bestätigungsfehler

Noch pro­ble­ma­ti­scher als die Exis­tenz die­ser Prä­fe­ren­zen ist die Ent­de­ckung sys­te­ma­ti­scher Bestä­ti­gungs­feh­ler. Die Model­le neig­ten dazu, an ihren ursprüng­li­chen Prä­fe­ren­zen fest­zu­hal­ten, selbst wenn sie mit über­zeu­gen­den gegen­tei­li­gen Bewei­sen kon­fron­tiert wur­den. Die­se Hart­nä­ckig­keit war beson­ders bei Model­len mit aus­ge­präg­ten anfäng­li­chen Prä­fe­ren­zen zu beobachten.

Die­ses Ver­hal­ten spie­gelt mensch­li­che kogni­ti­ve Ver­zer­run­gen wider, aller­dings mit einem ent­schei­den­den Unter­schied: Wäh­rend Men­schen ihre Vor­ur­tei­le durch Erfah­rung und Refle­xi­on kor­ri­gie­ren kön­nen, blei­ben die Ver­zer­run­gen der LLMs in ihren trai­nier­ten Para­me­tern gefangen.

Weit­rei­chen­de Impli­ka­tio­nen für die Finanzbranche

Die Erkennt­nis­se haben weit­rei­chen­de Kon­se­quen­zen für die prak­ti­sche Anwen­dung von LLMs in der Finanz­welt. Sie ent­hül­len, dass die­se Sys­te­me kei­nes­wegs die objek­ti­ven, daten­ge­trie­be­nen Ent­schei­dungs­hel­fer sind, als die sie oft wahr­ge­nom­men wer­den. Statt­des­sen kön­nen ihre ein­ge­bet­te­ten Prä­fe­ren­zen die Ent­schei­dungs­fin­dung domi­nie­ren und zu Emp­feh­lun­gen füh­ren, die nicht mit den Zie­len der Nut­zer übereinstimmen.

Die­se Pro­ble­ma­tik ist beson­ders bedenk­lich in einem Umfeld, in dem algo­rith­mi­sche Ent­schei­dun­gen erheb­li­che finan­zi­el­le Aus­wir­kun­gen haben kön­nen. Ein Modell, das sys­te­ma­tisch bestimm­te Sek­to­ren oder Unter­neh­mens­grö­ßen bevor­zugt, könn­te zu sub­op­ti­ma­len Port­fo­lio­al­lo­ka­tio­nen füh­ren und damit die Ren­di­te­er­war­tun­gen der Anle­ger gefährden.

Trans­pa­renz als Schlüs­sel zur Vertrauenswürdigkeit

Die Stu­die lie­fert nicht nur eine Dia­gno­se des Pro­blems, son­dern auch eine Grund­la­ge für des­sen Lösung. Sie unter­streicht die drin­gen­de Not­wen­dig­keit, Trans­pa­renz in KI-Sys­te­me zu brin­gen und sys­te­ma­ti­sche Ansät­ze zur Erken­nung und Mil­de­rung von Vor­ein­ge­nom­men­heit zu entwickeln.

Für die Finanz­in­dus­trie bedeu­tet dies, dass der Ein­satz von LLMs nicht blind erfol­gen darf. Insti­tu­tio­nen müs­sen die inhä­ren­ten Ver­zer­run­gen ihrer KI-Sys­te­me ver­ste­hen und ent­spre­chen­de Kon­troll­me­cha­nis­men imple­men­tie­ren. Nur so kann sicher­ge­stellt wer­den, dass KI-gestütz­te Finanz­dienst­leis­tun­gen tat­säch­lich die gewünsch­ten Ergeb­nis­se liefern.

Ein Wen­de­punkt für KI in der Finanzwelt

Die­se For­schung mar­kiert einen Wen­de­punkt in unse­rem Ver­ständ­nis von KI in der Finanz­welt. Sie zeigt, dass die Objek­ti­vi­tät von Lar­ge Lan­guage Models eine Illu­si­on ist und dass ihre Prä­fe­ren­zen und Ver­zer­run­gen sys­te­ma­tisch erforscht und adres­siert wer­den müssen.

Die Erkennt­nis, das auch die fort­schritt­lichs­ten KI-Sys­te­me ihre eige­nen “Mei­nun­gen” haben, for­dert die Bran­che auf, neue Stan­dards für Trans­pa­renz und Ver­ant­wort­lich­keit zu ent­wi­ckeln. Nur durch die­se kri­ti­sche Aus­ein­an­der­set­zung mit den Gren­zen der Tech­no­lo­gie kann das vol­le Poten­zi­al von KI in der Finanz­welt ver­ant­wor­tungs­voll aus­ge­schöpft werden.
Die Zukunft KI-gestütz­ter Finanz­dienst­leis­tun­gen hängt davon ab, ob wir ler­nen, mit den Vor­ur­tei­len unse­rer digi­ta­len Bera­ter umzu­ge­hen – und sie zu überwinden.