Die Such­kos­ten von Kre­dit­ge­bern bei der Bewer­tung poten­zi­el­ler Kre­dit­neh­mer hän­gen von der Qua­li­tät des Under­wri­ting-Modells und dem Zugang zu Daten ab. Bei­des hat sich in den letz­ten Jah­ren durch das Auf­kom­men von Big Data und maschi­nel­lem Ler­nen radi­kal ver­än­dert. Für eini­ge ver­spricht dies Inklu­si­on und einen bes­se­ren Zugang zu Finanz­mit­teln. Unsicht­ba­re Spit­zen­kan­di­da­ten schnei­den unter KI bes­ser ab als unter tra­di­tio­nel­len Kri­te­ri­en. Umfang­rei­che­re Daten und raf­fi­nier­te­re Model­le hel­fen dabei, sie zu erken­nen, ohne dass sie zu hohe Kos­ten ver­ur­sa­chen. Aller­dings pro­fi­tie­ren nicht alle Antrag­stel­ler in glei­chem Maße. His­to­ri­sche Trai­nings­da­ten prä­gen die Algo­rith­men, Ver­zer­run­gen beein­träch­ti­gen die Ergeb­nis­se, und sowohl die Daten- als auch die Modell­qua­li­tät sind nicht immer gewähr­leis­tet. Vor die­sem Hin­ter­grund hat sich eine inten­si­ve Debat­te über algo­rith­mi­sche Dis­kri­mi­nie­rung ent­wi­ckelt. Die­ses Papier unter­nimmt einen ers­ten Schritt zur Ent­wick­lung von Grund­sät­zen für eine fai­re Kre­dit­ver­ga­be im Zeit­al­ter der KI. Es wird dar­ge­legt, dass es grund­le­gen­de Schwie­rig­kei­ten gibt, die algo­rith­mi­sche Dis­kri­mi­nie­rung in das tra­di­tio­nel­le Sys­tem der Anti­dis­kri­mi­nie­rungs­ge­set­ze ein­zu­pas­sen. Die her­kömm­li­che Leh­re mit ihrem Schwer­punkt auf der Ver­ur­sa­chung ist in vie­len Fäl­len schlecht geeig­net, um algo­rith­mi­sche Ent­schei­dun­gen sowohl im Rah­men der Leh­re von der Ungleich­be­hand­lung als auch der Leh­re von den unter­schied­li­chen Aus­wir­kun­gen zu behan­deln. Das Papier schließt mit einem Vor­schlag zur Neu­aus­rich­tung der Dis­kus­si­on und mit dem Ver­such, die Kon­tu­ren des Rechts der fai­ren Kre­dit­ver­ga­be im Zeit­al­ter der KI zu skizzieren.

Quel­le: Con­su­mer Cre­dit in The Age of AI – Bey­ond Anti-Dis­cri­mi­na­ti­on Law