Core Concepts
公平性を考慮したALEプロットは、機械学習モデルの部分集団における潜在的な偏りを特定し、ユーザーフレンドリーな方法で可視化するための手法である。
Abstract
本研究では、機械学習モデルの公平性を監査するための新しい手法「FALE (Fairness-aware Accumulated Local Effects)」を提案している。FALEは、ALE (Accumulated Local Effects)プロットを拡張したものであり、ある属性の値の変化に伴う公平性の変化を可視化することができる。
具体的には、まず公平性の定義に基づいて不公平度を計算する。次に、ある属性の値ごとに、その属性値を持つ保護対象集団と非保護対象集団の不公平度の差を算出し、それらを累積して可視化する。これにより、ある属性の値がどのように公平性に影響するかを直感的に理解できる。
また、各部分集団の人口情報も併せて表示することで、観察された公平性の差異の重要性を把握することができる。
FALEは、機械学習モデルの公平性を迅速かつユーザーフレンドリーに監査するための初期ツールとして機能することが期待される。今後の課題として、2次元FALEの実装や、他の視覚的説明手法との比較検討などが挙げられる。
Stats
モデルの予測に対する統計的公平性の偏りは0.177であった。