Core Concepts
Durch Multi-Task-Learning und LLM-Bearbeitung können Facetten für Suchanfragen effizient vorhergesagt werden, ohne dass eine Suchmaschine als Teil des Modells benötigt wird.
Abstract
Die Studie befasst sich mit der effizienten Vorhersage von Facetten für Suchanfragen ohne Verwendung einer Suchmaschine. Dafür werden zwei Strategien vorgeschlagen:
Multi-Task-Learning: Das Modell wird nicht nur zum Vorhersagen von Facetten, sondern auch zum Generieren von Dokumentenauszügen und verwandten Suchanfragen trainiert. Dadurch wird das Verständnis des Modells für die Suchanfrage verbessert.
LLM-Bearbeitung: Das vom Multi-Task-Modell vorhergesagte Ergebnis wird anschließend von einem Großsprachen-Modell (LLM) bearbeitet und verfeinert. Durch die Kombination des kleinen Modells mit dem LLM können genauere Facetten generiert werden, als wenn das LLM allein verwendet würde.
Die Ergebnisse zeigen, dass die vorgeschlagene Methode ohne Verwendung einer Suchmaschine ähnliche Leistung wie der Stand der Technik erreicht, der Suchmaschinen-Ergebnisse nutzt. Insbesondere in der LLM-basierten Evaluation schneidet die Methode besser ab als frühere Ansätze.
Stats
Die vorgeschlagene Methode erzeugt im Durchschnitt 4,13 Facetten pro Suchanfrage, während die Grundwahrheit 3,01 Facetten enthält.
Die durchschnittliche Länge der generierten Facetten beträgt 16,67 Wörter, verglichen mit 15 Wörtern in der Grundwahrheit.
57,33% der Facetten enthalten den Suchbegriff, im Vergleich zu 47,96% in der Grundwahrheit.
Der Anteil doppelter Facetten in einem Satz beträgt 1,3%, während er in der Grundwahrheit 0% beträgt.
Quotes
Keine relevanten Zitate gefunden.