Core Concepts
画像分類器のバイアスを、誤分類された画像のキャプションから抽出したキーワードで説明する。これにより、バイアスの発見と軽減が容易になる。
Abstract
本研究では、Bias-to-Text (B2T)フレームワークを提案し、画像分類器のバイアスを説明キーワードの形で発見する。具体的には以下の手順を踏む:
誤分類された画像のキャプションから共通のキーワードを抽出する。これらのキーワードは、バイアスの存在を示唆する。
抽出したキーワードと誤分類された画像の類似度を、ビジョン-言語モデルで評価する。類似度が高いキーワードがバイアスを表していることを確認する。
この手法により、以下のような知見が得られた:
既知のバイアス: CelebAのジェンダーバイアス、Waterbirdsの背景バイアス、ImageNet-R/Cの分布シフトなどを発見できた。さらに、より詳細なキーワード(「竹」など)を得られた。
新規バイアス: Dollar Streetの地理的バイアス、ImageNetの文脈バイアス(「花」と「アリ」の関連)などを発見できた。
応用: 得られたキーワードを用いて、偏りのない学習、CLIP prompting、モデル比較などが可能になった。
本手法は、視覚バイアスを効率的に発見・軽減する実用的なフレームワークを提供する。
Stats
「花」を含む画像がアリと誤分類される
「竹」を含む画像が水鳥と誤分類される
「洞窟」を含む画像がタンスと誤分類される
「雪」を含む画像が飛行機と誤分類される
Quotes
「花」と「アリ」の関連が強すぎるため、アリの画像を誤ってミツバチと分類してしまう
低所得国の家具は暗い場所にあることが多く、洞窟に似ているため、洗濯機が誤ってタンスと分類されてしまう