Core Concepts
大規模言語モデルにおける人種と性別に関するバイアスは、名前によってもたらされることが明らかになった。
Abstract
この研究では、大規模言語モデルのバイアスを明らかにしました。特に、名前が結果に影響を与えることが示されました。白人男性や女性の名前は有利な結果をもたらす一方で、黒人女性の名前は不利な結果をもたらす傾向があります。数値的な指標はバイアスを軽減する効果がありますが、質的な情報は一貫した効果を持ちません。総じて、大規模言語モデルは一般的な偏見を内包しており、マージナライズされたグループに不利な助言を提供しています。
Stats
黒人女性の名前は他のグループよりも最も不利な結果を示す。
白人男性の名前は最も有利な予測結果を生み出す。
数値的な指標は名前に基づく不均等を取り除く効果がある。
Quotes
"Our findings suggest name-based differences commonly materialize into disparities to the disadvantage of women, Black communities, and in particular Black women."
"Providing the model with a numeric anchor often successfully reduces model reliance on stereotypes, in turn avoiding disparities to materialize."