Der Artikel stellt eine neue Methode namens "Superposition-Prompting" vor, die darauf abzielt, die Genauigkeit und Effizienz von Retrieval-gestützter Textgenerierung mit großen Sprachmodellen zu verbessern.
Große Sprachmodelle haben zwar beeindruckende Leistungen erzielt, weisen aber auch erhebliche Nachteile auf, insbesondere wenn es um die Verarbeitung langer Kontexte geht. Ihre Inferenzkosten skalieren quadratisch mit der Sequenzlänge, was den Einsatz in einigen Anwendungen der Textverarbeitung wie der Retrieval-gestützten Textgenerierung erschwert. Außerdem zeigen die Modelle das "Ablenkungsphänomen", bei dem irrelevante Kontextinformationen die Ausgabequalität beeinträchtigen.
Um diese Nachteile anzugehen, schlägt der Artikel das Superposition-Prompting vor. Diese Methode kann direkt auf vortrainierte transformer-basierte Sprachmodelle angewendet werden, ohne dass eine Feinabstimmung erforderlich ist. Superposition-Prompting ermöglicht es dem Sprachmodell, Eingabedokumente in parallelen Prompt-Pfaden zu verarbeiten und irrelevante Pfade zu verwerfen.
Die Autoren zeigen, dass ihr Ansatz die Rechenzeit deutlich reduzieren und gleichzeitig die Genauigkeit auf Frage-Antwort-Benchmarks verbessern kann. Zum Beispiel ermöglicht ihr Ansatz eine 93-fache Reduzierung der Rechenzeit bei gleichzeitiger Verbesserung der Genauigkeit um 43% auf dem NaturalQuestions-Open-Datensatz mit dem MPT-7B-Instruktions-Modell im Vergleich zum naiven Retrieval-gestützten Ansatz.
다른 언어로
소스 콘텐츠 기반
arxiv.org
더 깊은 질문