Der Artikel stellt einen neuen Ansatz namens PoLLMgraph vor, um Halluzinationen in Großen Sprachmodellen (LLMs) zu erkennen und vorherzusagen. Im Gegensatz zu bestehenden Ansätzen, die sich auf die Ausgabetexte oder Vertrauenswerte konzentrieren, analysiert PoLLMgraph die internen Zustandsübergangsdynamiken des LLMs während der Textgenerierung.
Der Kern des Ansatzes ist es, die internen Zustände des LLMs während der Generierung in abstrakte Zustände zu überführen und diese Zustandsübergänge mithilfe von probabilistischen Modellen wie Markov-Modellen oder versteckten Markov-Modellen zu analysieren. Durch Bindung der Semantik der Halluzinationen an die erlernten Zustandsübergänge kann PoLLMgraph dann effektiv Halluzinationen in neuen Texten erkennen.
Die Autoren zeigen in umfangreichen Experimenten, dass PoLLMgraph die Leistung bestehender Methoden deutlich übertrifft, mit einer Steigerung der AUC-ROC um bis zu 20% auf gängigen Benchmarkdatensätzen wie TruthfulQA. Darüber hinaus erweist sich PoLLMgraph als dateneffizient und robust gegenüber Verteilungsverschiebungen, was seine praktische Anwendbarkeit unterstreicht.
Til et annet språk
fra kildeinnhold
arxiv.org
Viktige innsikter hentet fra
by Derui Zhu,Di... klokken arxiv.org 04-09-2024
https://arxiv.org/pdf/2404.04722.pdfDypere Spørsmål