Nicht nur in der Finanz­wirt­schaft ist die Ansicht weit ver­brei­tet, dass nur gro­ße und kom­ple­xe KI-Model­le, die mög­lichst vie­le Infor­ma­tio­nen und freie Para­me­ter ent­hal­ten, ver­läss­li­che Risi­ko­pro­gno­sen lie­fern. Das ist jedoch, so Gerd Gige­renz­er u.a. ein Irr­tum, der bei den Ban­ken und Aus­kunftei­en, wie der Schufa, dazu führt, sich gegen For­de­run­gen, die eige­nen Berech­nungs­ver­fah­ren trans­pa­rent zu machen, zu weh­ren. Es gehe schließ­lich um Geschäftsgeheimnisse.

Glück­li­cher­wei­se, so Gige­renz­er, sei die­se Sor­ge unbe­grün­det. “Model­le, die ein­fach und trans­pa­rent sind, weni­ge Daten ver­wen­den und die­se Daten auf trans­pa­ren­te Wei­se kom­bi­nie­ren, kön­nen hoch­kom­ple­xe KI- “Blackbox”-Modelle in ihrer Leis­tung über­tref­fen – selbst in Situa­tio­nen, in denen aus­rei­chend vie­le Daten zur Ver­fü­gung ste­hen. Dies haben über 30 Jah­re For­schung am Max-Planck-Insti­tut für Bil­dungs­for­schung in hun­der­ten von Stu­di­en, sowie mitt­ler­wei­le 10 Jah­re Anwen­dungs­er­fah­rung in der prak­ti­schen Umset­zung die­ser soge­nann­ten “Psy­cho­lo­gi­schen KI”-Modelle gezeigt[1]Unge­lieb­te Trans­pa­renz.

In der öffent­li­chen Wahr­neh­mung sei jedoch, so Gige­renz­er in einem Vor­trag an der Uni­ver­si­tät Bie­le­feld[2]Unge­wiss­heit im digi­ta­len Zeit­al­ter, die Vor­stel­lung, je mehr Daten, um so bes­ser, fest ver­an­kert. Dazu tra­gen in hohem…