Der Artikel stellt eine neuartige Methode namens "Imagination-Augmented-Generation" (IAG) vor, um das interne Wissen von Großsprachmodellen (LLMs) für Frage-Antwort-Aufgaben effizient zu nutzen.
Die Kernidee ist, dass LLMs durch Vorstellungskraft ihr Wissen kompensieren können, ohne auf externe Ressourcen wie Dokumentensammlungen angewiesen zu sein. Dazu werden zwei Hauptmodule eingeführt:
Explizite Vorstellungskraft: Ein Modell generiert einen kurzen, nützlichen Dummy-Textdokument basierend auf der Frage, um den Kontext anzureichern.
Implizite Vorstellungskraft: Ein HyperNetwork generiert spezifische LoRA-Adapter-Gewichte, um das Frage-Verarbeitungsvermögen des LLMs zu aktivieren.
Die experimentellen Ergebnisse auf drei Frage-Antwort-Datensätzen zeigen, dass die vorgeschlagene Methode "IMcQA" signifikante Vorteile sowohl in Bezug auf die Leistung als auch die Effizienz gegenüber Baseline-Methoden wie RAG und GAG aufweist. Selbst mit nur einem generierten Dummy-Dokument kann IMcQA die Leistung von Methoden mit 10 abgerufenen Dokumenten erreichen.
Sang ngôn ngữ khác
từ nội dung nguồn
arxiv.org
Thông tin chi tiết chính được chắt lọc từ
by Huanxuan Lia... lúc arxiv.org 03-25-2024
https://arxiv.org/pdf/2403.15268.pdfYêu cầu sâu hơn