Core Concepts
プライバシー保護と公平性を両立する新しい報酬設計手法を提案する。各参加者は自身の望むプライバシー保証を選択でき、その選択に応じて適切な報酬が与えられる。この設計により、参加者はプライバシーを過度に保護することを抑制され、全体の学習モデルの有用性が最大化される。
Abstract
本研究では、協調的機械学習における新しい報酬設計手法を提案する。従来の手法では、プライバシー保護とインセンティブ設計の両立が課題となっていた。
本手法の特徴は以下の通り:
各参加者は自身の望むプライバシー保証レベルを選択できる
プライバシー保証が強いほど報酬が減少するというトレードオフを設計に組み込む
これにより、参加者がプライバシーを過度に保護することを抑制し、全体の学習モデルの有用性を最大化する
報酬は学習モデルのサンプルとして与えられる
参加者は学習モデルそのものを受け取るため、モデルの品質に直接的に関心を持つ
報酬設計では、プライバシー保証、公平性、個人合理性などの重要なインセンティブを満たす
具体的な手順は以下の通り:
各参加者は自身の十分統計量(Sufficient Statistic)を提供し、所望のプライバシー保証レベルを選択する
中介者は、提供された情報に基づいて、ベイズ的な驚きを用いて各参加者の情報の価値を評価する
中介者は、評価に基づいて各参加者への報酬値を決定する
報酬は、中介者が各参加者の報酬値に応じて調整した学習モデルのサンプルとして与えられる
本手法は、プライバシー保護と公平性を両立しつつ、全体の学習モデルの有用性を最大化することができる。実験結果からも、提案手法の有効性が確認できる。
Stats
各参加者の データ量 ci は、それぞれ 100、200、400 データポイントである。
参加者2のプライバシー保証レベル ϵ2 を変化させた際の、参加者2の評価値 v2、シャープリー値 ϕ2、および報酬値 r2 の変化を示している。