Von Ralf Keuper

Die Her­me­neu­tik, deren wich­tigs­te Ver­tre­ter Wil­helm Dil­they, Fried­rich Schlei­er­ma­cher und Hans-Georg Gada­mer sind, beschäf­tigt sich mit der Inter­pre­ta­ti­on von Tex­ten und dem Ver­ste­hen von Sinn­zu­sam­men­hän­gen in mensch­li­chen Lebensäußerungen.

Gro­ße Sprach­mo­del­le wie ChatGPT beant­wor­ten Fra­gen, indem sie auf Basis sta­ti­scher Wahr­schein­lich­kei­ten nach den pas­sen­den Wör­tern suchen, um einen Satz zu ver­voll­stän­di­gen. Das geschieht aus­schließ­lich digi­tal. Wör­ter wer­den als Zei­chen­fol­ge, meis­ten im Binär­code (0,1), dar­ge­stellt. Text­ver­ständ­nis im Sin­ne der Her­me­neu­tik ist hier nicht gegeben.

Schlie­ßen sich Her­me­neu­tik und Gro­ße Sprach­mo­del­le damit aus?

In gewis­ser Wei­se ja und auch wie­der nicht, wie Tors­ten Hill­mann in Her­me­neu­tik in Zei­ten der KI schreibt. Fest steht für ihn, dass LLMs – Stand heu­te – nicht in der Lage sind, den Inhalt eines Tex­tes kogni­tiv zu erfas­sen und zu ver­ste­hen. Die Ant­wor­ten wer­den auf Grund­la­ge sta­tis­tisch infe­rier­ter Mus­ter aus den Trai­nings­da­ten gezo­gen und basie­ren nicht auf einem kogni­ti­ven Pro­zess des Abwä­gens und Verstehens.

Um es noch deut­li­cher zu sagen: LLM sind kei­ne sym­bo­li­schen Reprä­sen­ta­tio­nen der Welt, wie z. B. Know­ledge Gra­phen, in denen Wis­sen über die Welt nach kla­ren Regeln for­ma­li­siert abge­legt wird, son­dern sta­tis­ti­sche Reprä­sen­ta­tio­nen der Spra­che, mit der über die Welt gespro­chen wird. In die­sem Sin­ne gibt es in den LLM auch kei­ne Wahr­heit, das Modell kann nicht zwi­schen Wahr und Falsch unter­schei­den. Es gibt nur Wahr­schein­lich­kei­ten. Von daher kön­nen LLM auch kei­ne ver­läss­li­chen Aus­sa­gen über die­Welt tref­fen, son­dern nur Tex­te pro­du­zie­ren, wel­che die in den­Trai­nings­da­ten ent­hal­te­ne Spra­che und die dar­in abge­bil­de­ten Infor­ma­tio­nen in Bezug auf eine Aus­sa­ge oder einen bei­gege­ben­en­Text in einer plau­si­blen Art und Wei­se neu arrangieren

Gro­ße Sprach­mo­del­le kön­nen nur mit Denk­an­ge­bo­ten die­nen, die im wei­te­ren Ver­lauf kri­tisch zu über­prü­fen sind. ChatGPT & Co. sind nütz­li­che Instru­men­te, die beim Ver­ständ­nis bestim­men Fra­ge- und Pro­blem­stel­lun­gen unter­stüt­zen können.

Der eigent­li­che Ver­ste­hens­pro­zess jedoch pas­siert nicht in der Maschi­ne, son­dern bei uns, wenn wir die Aus­ga­ben der Maschi­ne lesen und inter­pre­tie­ren. Was die Maschi­ne letzt­lich aus­gibt, sind zunächst ein­mal nur die von ihr berech­ne­ten bzw. infe­rier­ten Sequen­zen von­To­ken und damit von Wör­tern und Wort­schnipp­seln. Erst wir als Nut­zen­de inter­pre­tie­ren die­seTex­te, ver­su­chen die­se zu ver­ste­hen und ord­nen ihnen Bedeu­tung zu. Dazu brau­chen wir als Nut­zen­de den ent­spre­chen­den Ver­ständ­nis­ho­ri­zont und damit die Bil­dung und die Erfah­rung in der­Aus­ein­an­der­set­zung mit dem jewei­li­gen­The­ma, um die Aus­ga­be der Maschi­ne auch adäquat ein­ord­nen und wei­ter­ver­ar­bei­ten zu kön­nen; denn am Ende sind wir es, die die­se Aus­ga­be ver­ste­hen müs­sen und die mit deren Hil­fe das eigent­li­che Ergeb­nis produzieren.

Zuerst erschie­nen auf KI Agen­ten