聯邦學習(FL)是一種分散式機器學習方案,客戶端通過共享模型信息而不是私有數據集來共同參與全局模型的協作訓練。為了解決通信和隱私相關的問題,單次FL已成為一個有前景的解決方案。然而,現有的單次FL方法要求公共數據集、關注模型同質設置,或者從本地模型中提取有限的知識,這使得訓練一個強大的全局模型變得困難甚至不切實際。
為了解決這些限制,我們提出了一種新的無數據雙生成器對抗式蒸餾方法(DFDG),它可以通過訓練雙生成器探索更廣泛的本地模型的訓練空間,從而實現更強大的全局模型。DFDG包含兩個部分:雙生成器訓練和雙模型蒸餾。在雙生成器訓練中,我們從保真度、可轉移性和多樣性三個方面深入研究每個生成器,以確保其效用,並設計交叉散度損失來減少雙生成器輸出空間的重疊。在雙模型蒸餾中,訓練好的雙生成器共同提供用於更新全局模型的訓練數據。
我們在多個流行的圖像分類任務上進行了廣泛的實驗,結果表明DFDG在準確率方面明顯優於其他最先進的基準方法。我們的消融研究進一步驗證了核心模塊和關鍵參數的有效性。
לשפה אחרת
מתוכן המקור
arxiv.org
תובנות מפתח מזוקקות מ:
by Kangyang Luo... ב- arxiv.org 09-13-2024
https://arxiv.org/pdf/2409.07734.pdfשאלות מעמיקות