本研究では、テキストから画像を生成するモデルにおける偏見を検出・定量化するOpenBiasパイプラインを提案している。従来の手法は特定の偏見セットに依存していたが、OpenBiasはそのような制限なしに任意の偏見を発見できる。
まず、大規模言語モデル(LLM)を使ってキャプションから潜在的な偏見を提案する。次に、対象の生成モデルを使ってキャプションに基づいて画像を生成する。最後に、視覚質問応答(VQA)モデルを使って、提案された偏見の存在と程度を認識する。
OpenBiasを使って、Stable Diffusion XL、2、1.5の各モデルの偏見を分析した。従来の閉じたセットの偏見検出手法と人間の判断との一致を示し、これまで研究されていなかった新しい偏見も発見した。特に、人物以外の対象(乗り物、動物、食べ物など)に関する偏見や、子供に関する偏見など、従来の研究では見過ごされていた偏見を明らかにした。
OpenBiasは、偏見検出の範囲を大幅に広げ、生成モデルの公平性を包括的に評価する新しいアプローチを提示している。
Egy másik nyelvre
a forrásanyagból
arxiv.org
Mélyebb kérdések