核心概念
多様な社会的・人口統計学的グループの視点と意見を公平に要約すること
要約
本論文は、公平な抽象的要約の定義、評価指標の提案、および大規模言語モデルの公平性評価を行っている。
多様な視点と意見を持つ人々の意見を公平に要約することの重要性を指摘している
公平性を「ある社会属性の値が過小表現されていないこと」と定義し、4つの指標(BUR、UER、AUC、SOF)を提案
6つのデータセットを用いて9つの大規模言語モデルの公平性を評価
人間が書いた参照要約も公平性が低いことを示した
温度パラメータの調整、要約長の調整、公平性定義の追加などの方法で公平性を改善できることを示した
統計
要約の長さを調整すると、3文の要約が最も公平性が高い
公平性の定義を指示に追加すると、gpt-turbo-3.5のBURが51.11から47.48に、UERが7.53から7.18に改善される
引用
「多様な社会的・人口統計学的グループの人々は、製品レビュー、ヘルスケア、法律、政治などの幅広いトピックについて、多様な視点と対立する意見を表明する」
「公平な要約は、特定のグループを過小表現することなく、多様な視点を包括的に提供すべきである」