Core Concepts
オンデマンドサンプリングを用いることで、複数の事前定義された分布上で期待損失を最小化する学習アルゴリズムの最適なサンプル複雑度を達成できる。
Abstract
本論文では、複数の事前定義された分布上で期待損失を最小化する学習問題を扱う。この問題設定は、ロバスト性、公平性、社会的厚生、マルチエージェントのトレードオフなどの現実世界の考慮事項から生まれてきた。
具体的には、以下の3つの問題設定を扱う:
協調学習: 複数の参加者が共有するモデルの学習問題。各参加者の分布上の期待損失を最小化する。
群分布頑健最適化(Group DRO): 複数の分布上の最悪期待損失を最小化する問題。公平性や頑健性のアプリケーションで重要。
非対称連邦学習: 複数の分布上の期待損失を最小化する問題。連邦学習の一般化。
本論文では、これらの問題設定に対して、オンデマンドサンプリングを用いることで、単一の分布学習に比べて、サンプル複雑度が対数因子しか増加しないアルゴリズムを提案する。これは、既存研究に比べて大幅な改善である。
アルゴリズムの設計と解析には、ゼロ和ゲームの解法に関する オンライン学習の手法を拡張することが鍵となる。特に、プレイヤーの異なるサンプリングコストを考慮した確率的な no-regret 動的アルゴリズムを提案する。
Stats
単一分布学習のサンプル複雑度に対して、オンデマンドサンプリングによる多分布学習のサンプル複雑度は、ε^-2(log(|H|) + n log(n/δ))となり、対数因子しか増加しない。
これは、既存研究の結果に比べて、協調学習では ε^-5 log(1/ε) log(n/δ)(log(|H|) + n)、公平連邦学習では ε^-2 n log(|H|) + n log(n/δ)と大幅に改善されている。
Quotes
"オンデマンドサンプリングは、特に一部の集団データが希少な場合(公平性メカニズムで修正されたサンプルなど)、データセットを稀少または非典型的なインスタンスに積極的に摂動できる場合(ロバスト性アプリケーションなど)、またはサンプルセットがインタラクティブなマルチエージェントシステムへの貢献を表す場合(連邦学習など)に特に適切である。"