Von Ralf Keuper
Die Hermeneutik, deren wichtigste Vertreter Wilhelm Dilthey, Friedrich Schleiermacher und Hans-Georg Gadamer sind, beschäftigt sich mit der Interpretation von Texten und dem Verstehen von Sinnzusammenhängen in menschlichen Lebensäußerungen.
Große Sprachmodelle wie ChatGPT beantworten Fragen, indem sie auf Basis statischer Wahrscheinlichkeiten nach den passenden Wörtern suchen, um einen Satz zu vervollständigen. Das geschieht ausschließlich digital. Wörter werden als Zeichenfolge, meisten im Binärcode (0,1), dargestellt. Textverständnis im Sinne der Hermeneutik ist hier nicht gegeben.
Schließen sich Hermeneutik und Große Sprachmodelle damit aus?
In gewisser Weise ja und auch wieder nicht, wie Torsten Hillmann in Hermeneutik in Zeiten der KI schreibt. Fest steht für ihn, dass LLMs – Stand heute – nicht in der Lage sind, den Inhalt eines Textes kognitiv zu erfassen und zu verstehen. Die Antworten werden auf Grundlage statistisch inferierter Muster aus den Trainingsdaten gezogen und basieren nicht auf einem kognitiven Prozess des Abwägens und Verstehens.
Um es noch deutlicher zu sagen: LLM sind keine symbolischen Repräsentationen der Welt, wie z. B. Knowledge Graphen, in denen Wissen über die Welt nach klaren Regeln formalisiert abgelegt wird, sondern statistische Repräsentationen der Sprache, mit der über die Welt gesprochen wird. In diesem Sinne gibt es in den LLM auch keine Wahrheit, das Modell kann nicht zwischen Wahr und Falsch unterscheiden. Es gibt nur Wahrscheinlichkeiten. Von daher können LLM auch keine verlässlichen Aussagen über dieWelt treffen, sondern nur Texte produzieren, welche die in denTrainingsdaten enthaltene Sprache und die darin abgebildeten Informationen in Bezug auf eine Aussage oder einen beigegebenenText in einer plausiblen Art und Weise neu arrangieren
Große Sprachmodelle können nur mit Denkangeboten dienen, die im weiteren Verlauf kritisch zu überprüfen sind. ChatGPT & Co. sind nützliche Instrumente, die beim Verständnis bestimmen Frage- und Problemstellungen unterstützen können.
Der eigentliche Verstehensprozess jedoch passiert nicht in der Maschine, sondern bei uns, wenn wir die Ausgaben der Maschine lesen und interpretieren. Was die Maschine letztlich ausgibt, sind zunächst einmal nur die von ihr berechneten bzw. inferierten Sequenzen vonToken und damit von Wörtern und Wortschnippseln. Erst wir als Nutzende interpretieren dieseTexte, versuchen diese zu verstehen und ordnen ihnen Bedeutung zu. Dazu brauchen wir als Nutzende den entsprechenden Verständnishorizont und damit die Bildung und die Erfahrung in derAuseinandersetzung mit dem jeweiligenThema, um die Ausgabe der Maschine auch adäquat einordnen und weiterverarbeiten zu können; denn am Ende sind wir es, die diese Ausgabe verstehen müssen und die mit deren Hilfe das eigentliche Ergebnis produzieren.
Zuerst erschienen auf KI Agenten