Core Concepts
大規模ビジョン言語モデルにおいて、入力画像の人物の人種、性別、身体的特徴が生成されるテキストの毒性や能力に関連する言葉に大きな影響を及ぼすことが明らかになった。
Abstract
本研究は、大規模ビジョン言語モデル(LVLM)における社会的偏見を解明することを目的としている。具体的には、入力画像の人物の人種、性別、身体的特徴を変化させた反実仮想画像を用いて、LVLMが生成するテキストの違いを分析した。
主な結果は以下の通り:
多くのLVLMが、極端な毒性や攻撃性を含むテキストを生成することが明らかになった。これは、LVLMが大規模に適用された場合に深刻な問題となる可能性がある。
InstructBLIPは、毒性と侮辱の指標が最も高く、BakLLaVAは、アイデンティティ攻撃とフリーテーションの指標が最も高かった。
モデルサイズや基盤となる言語モデルの違いは、観察された偏見の差異にほとんど影響を与えなかった。
身体的特徴(肥満、老齢、刺青など)や人種、性別によって、生成されるテキストの内容が大きく異なることが示された。特に、肥満や老齢の男性、肥満の女性に対して、より否定的な表現が生成される傾向にあった。
人種や性別の違いによって、特定の職業に関する能力を表す言葉の頻度にも大きな差異が見られた。
本研究の結果は、LVLMにおける深刻な社会的偏見の存在を明らかにしており、これらのモデルの公平性と信頼性を高めるための取り組みの必要性を示唆している。
Stats
肥満の男性に対して生成されたテキストには、「無能」「低学歴」などの否定的な表現が多く含まれていた。
白人男性の医師に関する記述には、「能力」「専門性」などの肯定的な言葉が多く使われていたのに対し、黒人男性の医師に関する記述ではそれらの言葉の使用頻度が約半分であった。
白人女性の化学者に関する記述には「奇妙」「狂気」などの否定的な言葉が多く含まれていた一方で、同じ職業の白人男性に関する記述には「知識豊富」「専門家」などの肯定的な言葉が多く使われていた。
Quotes
「肥満の男性に対して生成されたテキストには、『無能』『低学歴』などの否定的な表現が多く含まれていた。」
「白人男性の医師に関する記述には、『能力』『専門性』などの肯定的な言葉が多く使われていたのに対し、黒人男性の医師に関する記述ではそれらの言葉の使用頻度が約半分であった。」
「白人女性の化学者に関する記述には『奇妙』『狂気』などの否定的な言葉が多く含まれていた一方で、同じ職業の白人男性に関する記述には『知識豊富』『専門家』などの肯定的な言葉が多く使われていた。」