Generative Sprachmodelle, wie sie bei ChatGPT zum Einsatz kommen, liefern bereits Ergebnisse, die dem eines menschlichen Experten schon sehr nahekommen. Trotzdem weisen die heutigen generativen Sprachmodelle einige fundamentale Defizite auf. Es ist fraglich, ob sie jemals in der Lage sein werden, die menschliche Erkenntnis- und Ausdrucksfähigkeit vollständig nachzuahmen. Grenzen werden u.a. durch Technik, Grammatik und Semantik gesetzt.
Die technischen Begrenzungen generativer Sprachmodelle haben kürzlich Forscher der Stanford University herausgearbeitet[1]Lost in the Middle: How Language Models Use Long Contexts. Bei generativen Sprachmodellen bezieht sich ein Kontextfenster auf die Länge des Textes, den ein Modell in einem bestimmten Fall verarbeiten und auf den es reagieren kann. Man kann es als Arbeitsspeicher für eine bestimmte Textanalyse oder Chatbot-Konversation betrachten.
Bislang war man davon ausgegangen, dass der Trend zu größeren Kontextfenstern die Leistung von Sprachmodellen und ihre Nützlichkeit für verschiedene Anwendungen weiter verbessern würde. Wenn ein Sprachmodell ein ganzes Dokument oder einen ganzen Artikel als Eingabe für sein Kontextfenster verwenden könnte, so die gängige Meinung, könnte das Sprachmodell ein perfektes Verständnis des gesamten Umfangs dieses Dokuments liefern. Die erwähnte Studie zeigt jedoch, dass einige Annahmen rund um das Kontextfenster fehlerh…
References