連邦学習における対照学習を相互情報量の観点から分析し、ユーザー検証損失を追加することで、大域的な相互情報量の下限を導出できることを示した。また、ラベル付きデータが一部利用可能な場合の拡張も提案した。さらに、非i.i.d.性の異なるソースが連邦教師なし学習のパフォーマンスに与える影響を分析した。