本論文提出了一種名為 SEPTA 的新型框架,用於解決常識問答 (CSQA) 任務。與傳統的「提取-建模」範式不同,SEPTA 將任務重新定義為子圖向量檢索問題,並利用圖文對齊技術來提高檢索精度和促進知識融合,從而增強模型的推理能力。
常識問答 (CSQA) 旨在評估模型基於常識知識的推理能力。現有方法大多採用「提取-建模」範式,即首先從知識圖譜中提取與問題相關的子圖,然後設計各種策略來表示和融合提取的結構化知識。然而,這些方法存在一些局限性,例如子圖提取質量不佳、圖文編碼器之間的語義空間未對齊等。
SEPTA 框架主要包含三個模塊:
圖文對齊模塊: 該模塊首先通過 BFS 樣本策略從知識圖譜中構建子圖,並將其轉換為文本描述,形成圖文對。然後,利用雙向對比學習方法,將圖編碼器和文本編碼器的語義空間對齊,以便在後續任務中更好地檢索和融合知識。
子圖檢索模塊: 該模塊首先利用對齊後的圖編碼器將知識圖譜轉換為子圖向量數據庫。然後,針對給定的問題,通過實體鏈接和文本檢索等方式增強查詢,並利用餘弦相似度從數據庫中檢索相關的子圖向量。
預測模塊: 該模塊利用多頭注意力機制將檢索到的子圖向量與問題和答案選項的文本表示進行融合,並通過線性層預測每個答案選項的分數。最終,選擇得分最高的選項作為預測答案。
在 CommonsenseQA、OpenBookQA、SocialIQA、PIQA 和 RiddleSenseQA 五個數據集上的實驗結果表明,SEPTA 框架在常識問答任務上取得了顯著的性能提升,並且在低資源場景下也表現出較強的魯棒性。
SEPTA 框架通過將知識圖譜轉換為子圖向量數據庫並利用圖文對齊技術來增強子圖檢索,為常識問答任務提供了一種新穎且有效的解決方案。
翻譯成其他語言
從原文內容
arxiv.org
深入探究