Gene­ra­ti­ve KI-Model­le wie ChatGPT haben das Pro­blem, dass sie nicht ver­ges­sen kön­nen, was sie ein­mal gelernt haben. Algo­rith­men haben sich in vie­len Berei­chen als unglaub­lich nütz­lich erwie­sen, aber die Unfä­hig­keit, Infor­ma­tio­nen zu ver­ges­sen, hat erheb­li­che Aus­wir­kun­gen auf Daten­schutz, Sicher­heit und Ethik.

Beim maschi­nel­len Ent­ler­nen geht es dar­um, den Ein­fluss bestimm­ter Daten­sät­ze auf ein ML-Sys­tem zu löschen. ML-Model­le sind im Wesent­li­chen Black Boxes. Das bedeu­tet, dass es schwie­rig ist, genau zu ver­ste­hen, wie sich bestimm­te Daten­sät­ze beim Trai­ning auf das Modell aus­ge­wirkt haben, und noch schwie­ri­ger, die Aus­wir­kun­gen eines pro­ble­ma­ti­schen Daten­sat­zes rück­gän­gig zu machen. Eben­so wer­den Beden­ken hin­sicht­lich des Daten­schut­zes geäu­ßert, nach­dem Angrif­fe auf Mit­glied­schafts­in­fe­ren­zen gezeigt haben, dass es mög­lich ist, Rück­schlüs­se dar­auf zu zie­hen, ob bestimm­te Daten zum Trai­nie­ren eines Modells ver­wen­det wur­den. Das bedeu­tet, dass die Model­le poten­zi­ell Infor­ma­tio­nen über die Per­so­nen preis­ge­ben kön­nen, deren Daten zum Trai­nie­ren des Modells ver­wen­det wurden.

Stand heu­te müss­te das gesam­te Modell neu trai­niert wer­den, wenn ein Nut­zer die Löschung von Daten ver­langt, was äußerst unprak­tisch ist. Die Not­wen­dig­keit eines effi­zi­en­ten Ver­fah­rens für die Bear­bei­tung von Anträ­gen auf Daten­lö­schung ist für…