マスク型自動エンコーダ(MAE)を用いることで、パラメータ効率の高い連合継続学習が可能になる。
本稿では、リハーサルなしでプロトタイプによって増強された軽量なプロンプトを協調的に学習する、効率的かつNon-IIDにロバストな連合継続学習フレームワーク、FPPLを提案する。
本稿では、データストリームを一度だけ処理するオンライン設定における連合継続学習(FCL)の課題に取り組む新しいフレームワークを提案する。これは、不確実性認識型メモリ管理を用いることで、過去のタスクに関する知識を保持しながら、新しいタスクを継続的に学習することを可能にする。