本論文は、連邦クラス増分学習(FCIL)の文脈において、カタストロフィック忘却の問題に取り組むための新しい手法「Federated Class-Incremental Learning with New-Class Augmented Self-DiStillation (FedCLASS)」を提案している。
FedCLASSの核心は、過去のモデルの出力にクライアントの現在のモデルによって予測された新クラスの得点を組み入れ、この組み合わされた知識を自己蒸留に利用することである。これにより、過去のモデルから現在のモデルへの知識移転がより包括的かつ正確になる。
理論的な分析では、FedCLASSの設計が信頼できる基盤に立っていることを示している。具体的には、過去のモデルによって予測された古いクラスの得点を、新クラスが存在しない状況下での条件付き確率としてモデル化し、現在のモデルによる新クラスの予測を、新クラスが存在しないと仮定した場合の過去のモデルの出力の条件付き確率として扱っている。
実験結果は、FedCLASSが平均忘却率の低減と全体的な精度の向上において、既存の手法を大きく上回ることを示している。
Til et andet sprog
fra kildeindhold
arxiv.org
Vigtigste indsigter udtrukket fra
by Zhiyuan Wu,T... kl. arxiv.org 04-18-2024
https://arxiv.org/pdf/2401.00622.pdfDybere Forespørgsler