Die Studie untersucht, wie dichte Informationsabruf-Systeme robuster gegen Tippfehler in Suchanfragen gemacht werden können. Aktuelle Ansätze verwenden Datenerweiterung, um Suchanfragen mit Tippfehlern während des Trainings zu erhalten, und zusätzliche Robustifizierungs-Aufgaben, um die Repräsentationsunterschiede zwischen der originalen, tippfehlerfreien Suchanfrage und ihren tippfehlerhaltige Varianten zu minimieren.
Die Autoren stellen fest, dass diese Methoden nicht immer optimal von den verfügbaren tippfehlerhaltige Suchanfragen profitieren. Sie verwenden Kontrastives Lernen mit nur einem Positiv-Beispiel pro Anker, obwohl mehrere Positiv-Beispiele (tippfehlerhaltige Varianten) zur Verfügung stehen.
Die Autoren schlagen stattdessen vor, alle verfügbaren Positiv-Beispiele gleichzeitig zu verwenden und Multi-Positiv-Kontrastives Lernen anzuwenden. Die experimentellen Ergebnisse zeigen, dass dieser Ansatz die Robustheit im Vergleich zu Kontrastivem Lernen mit einem einzigen Positiv-Beispiel verbessert.
To Another Language
from source content
arxiv.org
Viktige innsikter hentet fra
by Georgios Sid... klokken arxiv.org 03-19-2024
https://arxiv.org/pdf/2403.10939.pdfDypere Spørsmål