Die Studie untersucht, wie dichte Informationsabruf-Systeme robuster gegen Tippfehler in Suchanfragen gemacht werden können. Aktuelle Ansätze verwenden Datenerweiterung, um Suchanfragen mit Tippfehlern während des Trainings zu erhalten, und zusätzliche Robustifizierungs-Aufgaben, um die Repräsentationsunterschiede zwischen der originalen, tippfehlerfreien Suchanfrage und ihren tippfehlerhaltige Varianten zu minimieren.
Die Autoren stellen fest, dass diese Methoden nicht immer optimal von den verfügbaren tippfehlerhaltige Suchanfragen profitieren. Sie verwenden Kontrastives Lernen mit nur einem Positiv-Beispiel pro Anker, obwohl mehrere Positiv-Beispiele (tippfehlerhaltige Varianten) zur Verfügung stehen.
Die Autoren schlagen stattdessen vor, alle verfügbaren Positiv-Beispiele gleichzeitig zu verwenden und Multi-Positiv-Kontrastives Lernen anzuwenden. Die experimentellen Ergebnisse zeigen, dass dieser Ansatz die Robustheit im Vergleich zu Kontrastivem Lernen mit einem einzigen Positiv-Beispiel verbessert.
Ke Bahasa Lain
dari konten sumber
arxiv.org
Wawasan Utama Disaring Dari
by Georgios Sid... pada arxiv.org 03-19-2024
https://arxiv.org/pdf/2403.10939.pdfPertanyaan yang Lebih Dalam