連邦学習における一般化誤差の上限を、クライアントの局所的な一般化性能と非iid性に基づいて改善した。この分析に基づき、表現学習の解釈から、特に非iid環境下で、表現抽出器の集約頻度を減らすことで、より汎化性の高いモデルを作成できることを示した。