核心概念
大規模言語モデルの出力の信頼性と公平性を高めるための新しい手法REQUAL-LMを提案する。
要約
本論文では、大規模言語モデル(LLM)の出力の信頼性と公平性を向上させるための新しい手法REQUAL-LMを提案している。
LLMは自然言語処理分野を超えて様々な分野で活用されているが、LLMの出力は確率的で偏りを含む可能性がある。そのため、LLMの出力を意思決定に使う際には信頼性と公平性が重要となる。
REQUAL-LMは以下の特徴を持つ:
- モンテカルロ法に基づいて複数回LLMに問い合わせ、出力の分布を推定する。
- 出力の平均ベクトルを計算し、それに最も近い出力を選択することで信頼性を高める。
- 出力の偏りを考慮して重み付き平均を計算することで、公平性も高める。
- LLMを黒箱として扱うため、任意のLLMに適用可能。
- 事前学習や fine-tuning は不要で、すぐに使える。
実験では、サブセット選択、対話完成、マスク言語予測の各タスクで、REQUAL-LMが信頼性と公平性を両立した出力を生成できることを示している。
統計
出力の信頼性は、出力ベクトルと平均ベクトルの類似度で定義される。
出力の偏りは、出力ベクトルと人口統計学的グループのベクトルの類似度の差で定義される。
引用
"LLMは自然言語処理(NLP)の枠を超えて様々な分野で活用されているが、LLMの出力の確率的性質と潜在的な偏りは、信頼性と公平性の懸念を引き起こす。"
"REQUAL-LMは、LLMの出力の信頼性と公平性を高めるための新しい手法を提案する。"
"REQUAL-LMは、LLMを黒箱として扱うため、任意のLLMに適用可能で、事前学習や fine-tuning は不要である。"