Generative KI-Modelle wie ChatGPT haben das Problem, dass sie nicht vergessen können, was sie einmal gelernt haben. Algorithmen haben sich in vielen Bereichen als unglaublich nützlich erwiesen, aber die Unfähigkeit, Informationen zu vergessen, hat erhebliche Auswirkungen auf Datenschutz, Sicherheit und Ethik.
Beim maschinellen Entlernen geht es darum, den Einfluss bestimmter Datensätze auf ein ML-System zu löschen. ML-Modelle sind im Wesentlichen Black Boxes. Das bedeutet, dass es schwierig ist, genau zu verstehen, wie sich bestimmte Datensätze beim Training auf das Modell ausgewirkt haben, und noch schwieriger, die Auswirkungen eines problematischen Datensatzes rückgängig zu machen. Ebenso werden Bedenken hinsichtlich des Datenschutzes geäußert, nachdem Angriffe auf Mitgliedschaftsinferenzen gezeigt haben, dass es möglich ist, Rückschlüsse darauf zu ziehen, ob bestimmte Daten zum Trainieren eines Modells verwendet wurden. Das bedeutet, dass die Modelle potenziell Informationen über die Personen preisgeben können, deren Daten zum Trainieren des Modells verwendet wurden.
Stand heute müsste das gesamte Modell neu trainiert werden, wenn ein Nutzer die Löschung von Daten verlangt, was äußerst unpraktisch ist. Die Notwendigkeit eines effizienten Verfahrens für die Bearbeitung von Anträgen auf Datenlöschung ist für…