Der Artikel stellt eine neuartige Methode namens "Imagination-Augmented-Generation" (IAG) vor, um das interne Wissen von Großsprachmodellen (LLMs) für Frage-Antwort-Aufgaben effizient zu nutzen.
Die Kernidee ist, dass LLMs durch Vorstellungskraft ihr Wissen kompensieren können, ohne auf externe Ressourcen wie Dokumentensammlungen angewiesen zu sein. Dazu werden zwei Hauptmodule eingeführt:
Explizite Vorstellungskraft: Ein Modell generiert einen kurzen, nützlichen Dummy-Textdokument basierend auf der Frage, um den Kontext anzureichern.
Implizite Vorstellungskraft: Ein HyperNetwork generiert spezifische LoRA-Adapter-Gewichte, um das Frage-Verarbeitungsvermögen des LLMs zu aktivieren.
Die experimentellen Ergebnisse auf drei Frage-Antwort-Datensätzen zeigen, dass die vorgeschlagene Methode "IMcQA" signifikante Vorteile sowohl in Bezug auf die Leistung als auch die Effizienz gegenüber Baseline-Methoden wie RAG und GAG aufweist. Selbst mit nur einem generierten Dummy-Dokument kann IMcQA die Leistung von Methoden mit 10 abgerufenen Dokumenten erreichen.
Іншою мовою
із вихідного контенту
arxiv.org
Ключові висновки, отримані з
by Huanxuan Lia... о arxiv.org 03-25-2024
https://arxiv.org/pdf/2403.15268.pdfГлибші Запити