多くのアプリケーションで、機密データは分散されており、プライバシー上の懸念からプールすることができない。フェデレーテッドラーニングは、データをプールせずにモデルを共同でトレーニングすることを可能にし、ローカルモデルのパラメータを繰り返し集約することである。しかし、共有されたモデルパラメータからローカルデータに関する推論を行うことが可能であり、これは機密データに対する深刻な脅威をもたらす。提案されたフェデレーテッドコトレーニング(FEDCT)アプローチでは、クライアントは非ラベル付きの公開データセット上で予測を共有し、サーバーはこれらの予測の合意形成を行い、クライアントはこの合意を疑似ラベルとして使用してローカルトレーニングを行う。この方法はプライバシー向上だけでなく、任意の監督学習手法を使用することも可能にし、決定木やXGBoostなどの解釈可能なモデルも利用できる。
To Another Language
from source content
arxiv.org
ข้อมูลเชิงลึกที่สำคัญจาก
by Amr Abourayy... ที่ arxiv.org 03-05-2024
https://arxiv.org/pdf/2310.05696.pdfสอบถามเพิ่มเติม