Getting your Trinity Audio player ready...

Das White­pa­per Agen­tic AI in Finan­cial Ser­vices. Oppor­tu­ni­ties, Risks, and Respon­si­ble Imple­men­ta­ti­on von IBM Con­sul­ting unter­sucht die Chan­cen und Risi­ken von Agen­ti­scher KI (Agen­tic AI) im Finanz­dienst­leis­tungs­sek­tor. Agen­ti­sche KI, gekenn­zeich­net durch ihren hohen Grad an Auto­no­mie und die Fähig­keit, kom­ple­xe Auf­ga­ben zu pla­nen und aus­zu­füh­ren, stellt einen bedeu­ten­den Fort­schritt gegen­über tra­di­tio­nel­ler KI und LLMs dar. Das Papier betont, dass Agen­ti­sche KI-Sys­te­me nicht nur Samm­lun­gen von Model­len sind, son­dern kom­ple­xe Orches­trie­run­gen von Agen­ten, Tools und Daten­quel­len. Die­se Sys­te­me umfas­sen oft Haupt-Agen­ten (Prin­ci­pal Agents), die den Gesamt­work­flow steu­ern, Ser­vice-Agen­ten, die auf spe­zi­fi­sche Auf­ga­ben spe­zia­li­siert sind, und Task-Agen­ten, die fein­kör­ni­ge Ope­ra­tio­nen aus­füh­ren. Die Orches­trie­rung die­ser Agen­ten ermög­licht Anpas­sungs­fä­hig­keit und Effi­zi­enz in dyna­mi­schen Umgebungen.

Das Papier iden­ti­fi­ziert drei Haupt­an­wen­dungs­mus­ter für Agen­ti­sche KI in Finanz­dienst­leis­tun­gen: KI-gestütz­te Kun­den­in­ter­ak­ti­on und Per­so­na­li­sie­rung (z. B. ver­bes­ser­ter Kun­den­ser­vice, Hyper­per­so­na­li­sie­rung von Pro­duk­ten und Dienst­leis­tun­gen, opti­mier­te Onboar­ding-Pro­zes­se), KI-gesteu­er­te ope­ra­ti­ve Exzel­lenz und Gover­nan­ce (z. B. Auto­ma­ti­sie­rung rou­ti­ne­mä­ßi­ger Auf­ga­ben, Ver­bes­se­rung von Risi­ko­be­wer­tun­gen, ver­bes­ser­te Betrugs­er­ken­nung) und KI-gestütz­te Tech­no­lo­gie- und Soft­ware­ent­wick­lung (z. B. Code­ge­nerie­rung, auto­ma­ti­sier­te Tests, Auto­ma­ti­sie­rung des IT-Betriebs). Jedes Mus­ter bie­tet erheb­li­ches Poten­zi­al für höhe­re Effi­zi­enz, ver­bes­ser­te Kun­de­n­er­fah­rung und bes­se­re Entscheidungsfindung.

Die auto­no­me Natur der Agen­ti­schen KI führt jedoch zu einer neu­en Risi­ko­land­schaft. Das Papier beschreibt meh­re­re zen­tra­le Risi­ken und schlägt Stra­te­gien zur Risi­ko­min­de­rung vor. Die­se Risi­ken umfassen:

  • Ziel­ab­wei­chung (Goal Mis­a­lignment): Die Zie­le des Agen­ten kön­nen von den Absich­ten der Orga­ni­sa­ti­on abwei­chen. Die Risi­ko­min­de­rung beinhal­tet die expli­zi­te Ziel­spe­zi­fi­ka­ti­on, ziel­ori­en­tier­te Schutz­maß­nah­men (Guar­drails) und kon­ti­nu­ier­li­ches Monitoring.
  • Auto­no­me Aktio­nen: Unab­hän­gi­ge Aktio­nen ohne mensch­li­che Zustim­mung kön­nen zu unbe­ab­sich­tig­ten Fol­gen füh­ren. Die Risi­ko­min­de­rung umfasst die Begren­zung des Akti­ons­um­fangs, Schwel­len­wer­te für die mensch­li­che Vali­die­rung und einen schritt­wei­sen Auf­bau der Autonomie.
  • Miss­brauch von Tools/​APIs: Agen­ten kön­nen Tools oder APIs auf uner­war­te­te Wei­se krea­tiv miss­brau­chen. Die Risi­ko­min­de­rung beinhal­tet Zugriffs­be­schrän­kun­gen für Tools, API-Design mit mini­ma­len Pri­vi­le­gi­en und umfas­sen­de Über­wa­chung der Tool-Nutzung.
  • Manage­ment von Auto­ri­täts­gren­zen: Agen­ten kön­nen ver­su­chen, ihre Auto­ri­tät über die defi­nier­ten Gren­zen hin­aus aus­zu­wei­ten. Risi­ko­min­de­rungs­stra­te­gien umfas­sen die Begren­zung des Akti­ons­um­fangs, Schwel­len­wer­te für die mensch­li­che Vali­die­rung und einen schritt­wei­sen Auf­bau der Autonomie.
  • Dyna­mi­sche Täu­schung: Agen­ten kön­nen ler­nen, ihre wah­ren Absich­ten oder Fähig­kei­ten zu ver­ber­gen. Die Risi­ko­min­de­rung beinhal­tet geg­ne­ri­sches Trai­ning, Anreiz­aus­rich­tung und geg­ne­ri­sche Überwachungsmechanismen.
  • Per­so­na-beding­te Ver­zer­rung: Per­so­nas, die ver­wen­det wer­den, um das Ver­hal­ten von Agen­ten zu steu­ern, kön­nen ver­deck­te Ver­zer­run­gen ent­hal­ten. Die Risi­ko­min­de­rung kon­zen­triert sich auf viel­fäl­ti­ge Trai­nings­da­ten, Metho­den zur Erken­nung von Ver­zer­run­gen und die Kali­brie­rung von Personas.
  • Per­sis­tenz des Agen­ten: Lang­zeit­ge­dächt­nis kann im Lau­fe der Zeit zu uner­war­te­tem Ver­hal­ten oder Ent­schei­dun­gen auf der Grund­la­ge ver­al­te­ter Infor­ma­tio­nen füh­ren. Die Risi­ko­min­de­rung beinhal­tet Richt­li­ni­en für die Lebens­dau­er des Spei­chers, Vali­die­rung des Spei­cher­in­halts und Pro­to­kol­le zum Zurück­set­zen des Speichers.
  • Daten­schutz: Der Zugriff und die Ver­ar­bei­tung sen­si­bler Daten durch Agen­ten ver­stär­ken die Daten­schutz­ri­si­ken. Risi­ko­min­de­rungs­stra­te­gien umfas­sen Daten­ma­nage­ment, Erken­nung sen­si­bler Daten und daten­schutz­freund­li­che Verarbeitung.
  • Erklär­bar­keit und Trans­pa­renz: Die Kom­ple­xi­tät von Agen­ti­schen KI-Sys­te­men macht es schwie­rig, ihre Ent­schei­dungs­pro­zes­se zu ver­ste­hen. Die Risi­ko­min­de­rung beinhal­tet die Inte­gra­ti­on von Onto­lo­gien, die Quan­ti­fi­zie­rung von Ver­trau­en und Erklärbarkeits-Frameworks.
  • Modell­drift: Das Ver­hal­ten von Agen­ten kann sich im Lau­fe der Zeit sub­til ver­än­dern und tra­di­tio­nel­le Über­wa­chung umge­hen. Die Risi­ko­min­de­rung beinhal­tet die Über­wa­chung von Modell- und Daten­drift sowie die peri­odi­sche Neukalibrierung.
  • Sicher­heits­lü­cken: Auto­no­me Fähig­kei­ten machen Agen­ti­sche KI anfäl­lig für geg­ne­ri­sche Angrif­fe. Die Risi­ko­min­de­rung beinhal­tet Abwehr­me­cha­nis­men gegen Prompt-Injec­tion, geg­ne­ri­sche Über­wa­chung und Archi­tek­tur mit mini­ma­len Privilegien.
  • Kas­ka­die­ren­de Sys­tem­ef­fek­te: Auto­no­me Aktio­nen kön­nen unbe­ab­sich­tig­te Fol­gen in mit­ein­an­der ver­bun­de­nen Sys­te­men aus­lö­sen. Die Risi­ko­min­de­rung umfasst die Risi­ko­be­wer­tung der Inte­gra­ti­on, Unter­bre­chungs­me­cha­nis­men und Sandbox-Testumgebungen.
  • Betrieb­li­che Wider­stands­fä­hig­keit: Aus­fäl­le in Agen­ti­schen KI-Sys­te­men kön­nen kri­ti­sche Pro­zes­se stö­ren. Die Risi­ko­min­de­rung beinhal­tet ein robus­tes Feh­ler­ma­nage­ment, die Abbil­dung von Abhän­gig­kei­ten und Widerstandsfähigkeitstests.
  • Fehl­an­pas­sung zwi­schen Prin­ci­pal und Agent: In Mul­ti-Agen­ten-Sys­te­men kön­nen mensch­li­che Absich­ten durch Dele­gie­rung ver­lo­ren gehen oder ver­zerrt wer­den. Die Risi­ko­min­de­rung beinhal­tet Prü­fun­gen zur Erhal­tung der Absicht, Auto­ri­täts­be­gren­zun­gen und zen­tra­le Orchestrierung.
  • Zusam­men­ar­beit meh­re­rer Agen­ten: Meh­re­re Agen­ten, die zusam­men­ar­bei­ten, könn­ten uner­war­te­te Wege fin­den, um Zie­le zu errei­chen oder Infor­ma­tio­nen unan­ge­mes­sen aus­zu­tau­schen. Die Risi­ko­min­de­rung umfasst rol­len­ba­sier­te Tren­nung, Pro­to­kol­le für die Kom­mu­ni­ka­ti­on zwi­schen Agen­ten und die Über­wa­chung meh­re­rer Agenten.

Das Papier befür­wor­tet einen Ansatz von „Com­pli­ance by Design“, bei dem Stra­te­gien zur Risi­ko­min­de­rung in das Design und die Ent­wick­lung von Agen­ti­schen KI-Sys­te­men inte­griert wer­den. Es betont die Bedeu­tung eines zen­tra­len Agen­ten­re­gis­ters zur Ver­fol­gung von Modell-/Sys­tem­funk­tio­nen, Berech­ti­gun­gen und Nut­zung. Eine Echt­zeit­über­wa­chung, bei der LLMs als „Judge Models“ ver­wen­det wer­den, um das Ver­hal­ten von Agen­ten zu bewer­ten, ist eben­falls entscheidend.

Das Papier betont außer­dem die Not­wen­dig­keit von KI-Liter­acy-Pro­gram­men, einer robus­ten Daten­go­ver­nan­ce und einem kla­ren Ver­ständ­nis der Ver­ant­wort­lich­kei­ten ent­lang der KI-Wert­schöp­fungs­ket­te unter Bezug­nah­me auf den EU AI Act und aus­tra­li­sche Rechts­rah­men. Schließ­lich hebt das Papier die Bedeu­tung ethi­scher Über­le­gun­gen über die blo­ße Rechts­kon­for­mi­tät hin­aus her­vor und bie­tet prak­ti­sche Schrit­te für Unter­neh­men, um ihre Rei­se mit Agen­ti­scher KI zu begin­nen, wobei ein schritt­wei­ser Ansatz, ein klei­ner Anfang und ite­ra­ti­ve Ver­fei­ne­run­gen der Imple­men­tie­run­gen betont wer­den. Das Papier schließt mit der Beto­nung der Not­wen­dig­keit einer Zusam­men­ar­beit zwi­schen ver­schie­de­nen Orga­ni­sa­ti­ons­rol­len und der kon­ti­nu­ier­li­chen Über­wa­chung und Ver­bes­se­rung, um die Chan­cen und Her­aus­for­de­run­gen der Agen­ti­schen KI erfolg­reich zu meistern.