Core Concepts
Durch den Einsatz von Großsprachmodellen (LLMs) können mehrere Abfragen generiert werden, um die Abrufleistung bei komplexen Benutzeranfragen zu verbessern.
Abstract
Der Artikel befasst sich mit der konversationsbasierten Informationssuche (CIS), bei der ein Wissensassistent mit dem Benutzer interagiert, um dessen Informationsbedürfnisse zu erfüllen. Bestehende Ansätze modellieren die Informationsbedürfnisse des Benutzers mit einer einzigen Abfrage, was bei komplexen Anfragen zu Einschränkungen führen kann.
Der Artikel schlägt drei Methoden vor, die auf dem Generate-then-Retrieve-Prinzip basieren und die Fähigkeiten von Großsprachmodellen (LLMs) nutzen, um mehrere Abfragen zu generieren, um die Abrufleistung zu verbessern:
AD (Answer as Query): Das LLM-generierte Ergebnis wird als einzelne lange Abfrage verwendet.
QD (Query Generation): Das LLM generiert direkt mehrere Abfragen.
AQD (Answer and Query Generation): Das LLM generiert zunächst eine Antwort und dann mehrere Abfragen, um diese Antwort zu verfeinern.
AQDA (Answer and Query Generation with Answer-based Ranking): Eine Variante von AQD, bei der die endgültige Rangfolge basierend auf der ursprünglichen Antwort neu bewertet wird.
Die Experimente zeigen, dass die vorgeschlagenen Methoden, insbesondere AQDA, die Abrufleistung im Vergleich zu bestehenden Ansätzen deutlich verbessern können. Darüber hinaus wird ein neuer Bewertungspool für den TREC iKAT-Datensatz erstellt, der auf Bewertungen des GPT-3.5-Modells basiert.
Stats
Die Reiseentfernung zwischen NYU und Trento beträgt 66 Meilen.
Die Reiseentfernung zwischen der Columbia University und Trento beträgt 77 Meilen.
Die Reiseentfernung zwischen der Rutgers University und Trento beträgt 39 Meilen.
Quotes
"Durch den Einsatz von Großsprachmodellen (LLMs) können mehrere Abfragen generiert werden, um die Abrufleistung bei komplexen Benutzeranfragen zu verbessern."
"Die vorgeschlagenen Methoden, insbesondere AQDA, können die Abrufleistung im Vergleich zu bestehenden Ansätzen deutlich verbessern."