|
Getting your Trinity Audio player ready...
|
Die Finanzindustrie hat sich in den vergangenen zwei Jahren in einen außergewöhnlichen Widerspruch manövriert. Einerseits treibt sie die Integration von Large Language Models mit Nachdruck voran – für Kontenabstimmungen, regulatorische Berichtspflichten, Kundenkommunikation. Andererseits basiert das gesamte Finanzsystem auf Prinzipien der Nachvollziehbarkeit, Wiederholbarkeit und Prüfbarkeit, die mit der Funktionsweise großer KI-Modelle grundlegend kollidieren.
Die Studie „LLM Output Drift: Cross-Provider Validation & Mitigation for Financial Workflows” von Raffi Khatchadourian und Ko-Autoren liefert nun erstmals eine quantitative Vermessung dieses Konflikts. Das zentrale Phänomen trägt den technischen Namen „Output Drift”: die Tendenz von Sprachmodellen, bei identischen Eingaben unterschiedliche Antworten zu produzieren. Was in kreativen Anwendungen als Feature gilt, wird im regulierten Finanzumfeld zum Haftungsrisiko.
Die Forscher testeten fünf Modellarchitekturen mit Parametergrößen zwischen 7 und 120 Milliarden über typische Finanzaufgaben hinweg – strukturierte Datenabfragen, Dokumentenzusammenfassungen, Retrieval-Augmented Generation. Das Ergebnis kehrt die gängige Größen-Leistungs-Annahme der KI-Industrie radikal um: Kleinere Modelle wie Granite‑3–8B und Qwen2.5–7B erreichen bei Temperatur null – dem deterministischsten Konfigurationsmodus – eine hundertprozentige Ausgabekonsistenz. Das 120-Milliarden-Par…
