Durch den Einsatz von Großsprachmodellen (LLMs) können mehrere Abfragen generiert werden, um die Abrufleistung bei komplexen Benutzeranfragen zu verbessern.
Die Studie präsentiert einen Denoised Table-Text Retriever (DoTTeR), der die Herausforderungen von falschen positiven Etiketten in Trainingsdatensätzen und das Fehlen von Tabellenebenen-Informationen in vorherigen Tabellen-Text-Retrievalsystemen adressiert. DoTTeR verwendet ein Denoising-Modell, um falsch positive Instanzen zu entfernen, und integriert eine rang-bewusste Tabellencodierung, um Ranking-Informationen für das Retrieval bereitzustellen.
Große Sprachmodelle haben entscheidende Mängel, die verhindern, dass sie allein jemals allgemeine Intelligenz oder allgemeine Informationssyntheseanfragen darstellen können. Logische diskrete grafische Modelle können diese Probleme lösen.