核心概念
本文提出了一個名為FedIT-U2S的新框架,可以自動將客戶的非結構化數據轉換為結構化的指令-響應數據對,從而實現大型語言模型的聯邦指令微調,無需大量的人工標註工作。
摘要
本文提出了FedIT-U2S,這是一個實現大型語言模型聯邦指令微調的新框架。它包括兩個關鍵步驟:
-
少樣本指令-響應數據生成:
- 對於每個客戶的非結構化數據,客戶會從一個示例庫中選擇幾個相關的示例,並將它們與非結構化數據組合成提示,以引導預訓練的語言模型生成指令-響應對。
- 為了提高靈活性,我們提出了一種基於檢索的示例選擇方法,自動選擇與客戶數據最相關的示例。
-
基於生成數據的聯邦指令微調:
- 在生成的指令-響應數據對的基礎上,啟動典型的聯邦指令微調過程。
- 為了提高通信和計算效率,我們採用了LoRA作為參數高效的微調技術。
我們在醫療、知識和數學三個領域進行了一系列實驗,結果表明,我們的FedIT-U2S方法可以顯著提高基礎語言模型在相應下游任務上的性能。此外,我們還展示了基於檢索的示例選擇和數據過濾的有效性,為進一步提高FedIT-U2S的性能提供了潛在的方向。
統計資料
我們的方法可以在醫療、知識和數學三個領域中,顯著提高基礎語言模型的BERT Score和ROUGE-L指標。
在HotpotQA數據集上,我們的方法可以將BERT Score從0.0566提高到0.2439,ROUGE-L從0.2380提高到0.3226。
即使在經過數據過濾後,生成的數據量較少,但仍然可以大幅提高模型性能,顯示了數據質量的重要性。
引述
"FedIT-U2S可以自動將客戶的非結構化數據轉換為結構化的指令-響應數據對,從而實現大型語言模型的聯邦指令微調,無需大量的人工標註工作。"
"我們在醫療、知識和數學三個領域進行了一系列實驗,結果表明,我們的FedIT-U2S方法可以顯著提高基礎語言模型在相應下游任務上的性能。"
"即使在經過數據過濾後,生成的數據量較少,但仍然可以大幅提高模型性能,顯示了數據質量的重要性。"