Die Studie präsentiert eine neuartige Selbsterkennungsmethode, um zu erkennen, wann Große Sprachmodelle (LLMs) keine Antwort auf eine Frage wissen. Die Methode basiert auf zwei Komponenten:
Konsistenzbasierte Erkennung: Es wird die Divergenz der Antworten des LLMs auf semantisch äquivalente, aber unterschiedlich formulierte Fragen untersucht. Wenn die Antworten stark variieren, deutet dies darauf hin, dass das Modell die Frage nicht kennt.
Formulierungsbasierte Erkennung: Es wird die Untypikalität der Formulierung der Eingabefrage im LLM berechnet. Wenn die Formulierung untypisch ist, ist es wahrscheinlicher, dass das Modell die Frage nicht versteht.
Die Studie zeigt, dass diese beiden Komponenten effektiv sind, um Halluzinationen in kürzlich veröffentlichten LLMs wie Llama 2, Vicuna, ChatGPT und GPT-4 in Fakten-Frage-Beantwortung, arithmetischem Schlussfolgern und Alltagsverständnis-Aufgaben zu erkennen. Die Methode ist selbstständig und erfordert keine externen Ressourcen.
Die Analyse zeigt, dass LLMs tendenziell Fragen zu unpopulären Themen, Fragen mit mehreren Lösungsschritten und Fragen mit ablenkenden Formulierungen nicht beantworten können. Die Studie liefert wichtige Erkenntnisse darüber, was LLMs nicht wissen und wie man dies effektiv erkennen kann.
Para outro idioma
do conteúdo fonte
arxiv.org
Principais Insights Extraídos De
by Yukun Zhao,L... às arxiv.org 03-22-2024
https://arxiv.org/pdf/2310.17918.pdfPerguntas Mais Profundas