Die Studie untersucht die Fähigkeit Großer Sprachmodelle, ihre Unsicherheit in ihren Antworten genau auszudrücken. Dazu wird ein systematischer Rahmen mit drei Komponenten definiert: Prompt-Strategien zum Abfragen der verbalen Zuversicht, Sampling-Methoden zum Generieren mehrerer Antworten und Aggregationstechniken zum Berechnen der Konsistenz.
Die Ergebnisse zeigen, dass Große Sprachmodelle dazu neigen, ihre Antworten mit hoher Zuversicht zu äußern, ähnlich wie Menschen. Dies kann durch menschenähnliche Prompt-Strategien wie Chain-of-Thought und Self-Probing teilweise abgemildert werden, führt aber nicht zu einer deutlichen Verbesserung der Fehlererkennung.
Der Einsatz von Sampling-Strategien und Aggregationstechniken, die die Varianz zwischen mehreren Antworten nutzen, kann die Fehlererkennung verbessern, insbesondere bei arithmetischen Aufgaben. Allerdings bleibt die Leistung bei Aufgaben, die Fachwissen erfordern, eine Herausforderung.
Der Vergleich mit White-Box-Methoden zeigt, dass diese zwar besser abschneiden, der Abstand aber relativ gering ist. Insgesamt zeigt die Studie, dass die Vertrauensermittlung in Großen Sprachmodellen weiterhin ein offenes Forschungsfeld ist, das weitere Verbesserungen erfordert.
다른 언어로
소스 콘텐츠 기반
arxiv.org
더 깊은 질문