Agen­ten, die auf gro­ßen Sprach­mo­del­len basie­ren, wer­den als kos­ten­güns­ti­ger Mecha­nis­mus zur Bereit­stel­lung per­so­na­li­sier­ter Gesprächs­be­ra­tung immer belieb­ter und haben in rela­tiv ein­fa­chen Sze­na­ri­en, wie z. B. Film­emp­feh­lun­gen, beein­dru­cken­de Fähig­kei­ten bewie­sen. Aber wie ver­hal­ten sich die­se Agen­ten in kom­ple­xen Berei­chen, in denen viel auf dem Spiel steht, wo Fach­wis­sen uner­läss­lich ist und Feh­ler ein erheb­li­ches Risi­ko dar­stel­len? Die­se Arbeit unter­sucht die Effek­ti­vi­tät von LLM-Bera­tern im Finanz­be­reich und kon­zen­triert sich dabei auf drei ver­schie­de­ne Her­aus­for­de­run­gen: (1) die Ermitt­lung von Benut­zer­prä­fe­ren­zen, wenn die Benut­zer selbst nicht genau wis­sen, was sie brau­chen, (2) die Bereit­stel­lung von per­so­na­li­sier­ter Bera­tung für unter­schied­li­che Inves­ti­ti­ons­prä­fe­ren­zen und (3) die Nut­zung der Per­sön­lich­keit des Bera­ters, um Bezie­hun­gen auf­zu­bau­en und Ver­trau­en zu för­dern. Anhand einer labor­ba­sier­ten Nut­zer­stu­die mit 64 Teil­neh­mern zei­gen wir, dass LLM-Bera­ter bei der Ermitt­lung von Prä­fe­ren­zen häu­fig mit der Leis­tung mensch­li­cher Bera­ter über­ein­stim­men, obwohl sie Schwie­rig­kei­ten haben kön­nen, wider­sprüch­li­che Nut­zer­be­dürf­nis­se zu lösen. Bei der Bereit­stel­lung von per­so­na­li­sier­ten Rat­schlä­gen konn­te das LLM das Nut­zer­ver­hal­ten posi­tiv beein­flus­sen, zeig­te aber auch kla­re Feh­ler­mög­lich­kei­ten. Unse­re Ergeb­nis­se zei­gen, dass eine genaue Erfas­sung der Prä­fe­ren­zen von ent­schei­den­der Bedeu­tung ist, da der LLM-Bera­ter andern­falls nur wenig Ein­fluss hat oder den Anle­ger sogar zu unge­eig­ne­ten Anla­gen füh­ren kann.

Noch besorg­nis­er­re­gen­der ist, dass die Nut­zer offen­bar nicht auf die Qua­li­tät der erteil­ten Rat­schlä­ge ach­ten, oder schlim­mer noch, dass die­se in einem umge­kehr­ten Ver­hält­nis ste­hen kön­nen. In der Tat berich­te­ten die Nut­zer über eine Prä­fe­renz für und eine erhöh­te Zufrie­den­heit sowie emo­tio­na­les Ver­trau­en mit LLMs, die eine extro­ver­tier­te Per­sön­lich­keit annah­men, obwohl die­se Agen­ten schlech­te­re Rat­schlä­ge gaben.

Quel­le: Are Gene­ra­ti­ve AI Agents Effec­ti­ve Per­so­na­li­zed Finan­cial Advisors?

Schluss­fol­ge­run­gen 

In die­sem Bei­trag haben wir eine labor­ge­stütz­te Nut­zer­stu­die durch­ge­führt, um zu unter­su­chen, wie effek­tiv gro­ße Sprach­mo­del­le als Finanz­be­ra­ter sind. Wir kon­zen­trie­ren uns auf drei zen­tra­le Her­aus­for­de­run­gen: Prä­fe­renz­er­he­bung, Anla­ge­per­so­na­li­sie­rung und Beraterpersönlichkeit.

Ers­tens zeigt unse­re Ana­ly­se, dass LLMs effek­ti­ve Werk­zeu­ge für die Prä­fe­renz­er­he­bung durch Kon­ver­sa­ti­on sind. In den meis­ten Fäl­len sind sie in der Lage, die Prä­fe­ren­zen der Anle­ger mit einer Genau­ig­keit zu ermit­teln, die der eines erfah­re­nen mensch­li­chen Bera­ters nahe kommt oder ihr ent­spricht. Aller­dings gibt es auch eini­ge ein­deu­ti­ge Feh­ler, da LLMs anfäl­lig für wider­sprüch­li­che Aus­sa­gen und Hal­lu­zi­na­tio­nen sind, die bei kom­ple­xen Anle­ger­pro­fi­len die Genau­ig­keit der Erhe­bung auf ein zufäl­li­ges Niveau sen­ken kön­nen. Obwohl LLMs für die Erhe­bung viel­ver­spre­chend sind, ver­ste­hen Inves­to­ren in einem kom­ple­xen Bereich wie dem Finanz­we­sen ihre eige­nen Prä­fe­ren­zen nicht immer voll­stän­dig (oder sie haben Schwie­rig­kei­ten, sie aus­zu­drü­cken). Daher soll­ten zukünf­ti­ge Arbei­ten die Ent­wick­lung von LLM-Bera­tern unter­su­chen, die in der Lage sind, wider­sprüch­li­che Nut­zer­be­dürf­nis­se zu lösen.

Zwei­tens kann die Per­so­na­li­sie­rung von LLMs zur Anla­ge­be­ra­tung die Ent­schei­dun­gen der Anle­ger ver­bes­sern, aller­dings nur, wenn der per­so­na­li­sier­te LLM-Bera­ter genaue Infor­ma­tio­nen über die Prä­fe­ren­zen des Anle­gers erhält. Wenn die Prä­fe­renz­er­he­bung nicht erfolg­reich ist, lei­tet der Agent die Anle­ger aktiv zu den fal­schen Ver­mö­gens­wer­ten, in die sie inves­tie­ren soll­ten. Dies unter­streicht, wie ent­schei­dend eine gute Prä­fe­renz­er­he­bung für eine sinn­vol­le Finanz­be­ra­tung ist.

Schließ­lich deu­ten unse­re Ergeb­nis­se dar­auf hin, dass die Anle­ger nicht unbe­dingt wis­sen, was eine gute Finanz­be­ra­tung aus­macht, und daher anfäl­lig dafür sind, auf schlech­te Rat­schlä­ge von LLMs zu reagie­ren. Beim Ver­gleich zwi­schen einem nicht-per­so­na­li­sier­ten und einem per­so­na­li­sier­ten LLM-Bera­ter führ­te das per­so­na­li­sier­te Sys­tem zwar zu bes­se­ren Ent­schei­dun­gen, aber die Teil­neh­mer waren nicht in der Lage, zwi­schen den Sys­te­men zu unter­schei­den. Noch besorg­nis­er­re­gen­der war der Ver­gleich zwi­schen zwei per­so­na­li­sier­ten Bera­tern mit extro­ver­tier­ten und gewis­sen­haf­ten Per­sön­lich­kei­ten: Obwohl der extro­ver­tier­te Bera­ter weni­ger gute Rat­schlä­ge gab, ver­trau­ten die Teil­neh­mer die­sem Bera­ter mehr als dem gewissenhaften.

Anmer­kung:

Die Anfäl­lig­keit der Kun­din­nen und Kun­den für extro­ver­tier­te LLM-Agen­ten lässt sich m.E. voll­um­fäng­lich auf phy­si­schen Kun­den­be­ra­te­rin­nen und Kun­den­be­ra­ter, die mit ähn­li­chen Cha­rak­ter­merk­ma­len wie die extro­ver­tier­ten LLM-Agen­ten aus­ge­stat­tet sind, übertragen.

Zuerst erschie­nen auf KI‑Agenten