本論文は、連邦学習(FL)における新しいプライバシー保護アプローチ「FedLAP-DP」を提案している。従来のFLでは、クライアントが局所的な勾配を共有し、サーバーがそれらを集約することで大域的な最適化を行っていた。しかし、クライアントのデータ分布の異質性や差分プライバシー保護の導入により、この手法では性能が大幅に劣化する問題があった。
FedLAP-DPでは、クライアントが合成サンプルを生成し、それらを共有することで大域的な損失関数を近似する。具体的には以下の手順を踏む:
この手法により、従来の勾配共有方式が抱える問題を解決し、高い性能と収束速度を実現できる。また、差分プライバシー保護を効率的に組み込むことができる。
เป็นภาษาอื่น
จากเนื้อหาต้นฉบับ
arxiv.org
ข้อมูลเชิงลึกที่สำคัญจาก
by Hui-Po Wang,... ที่ arxiv.org 05-06-2024
https://arxiv.org/pdf/2302.01068.pdfสอบถามเพิ่มเติม