大規模言語モデル(LLM)の予測における不確実性を理解し、定量化することは、その信頼性を高める上で不可欠である。
本稿では、生成型大規模言語モデル (LLM) の出力における不確実性推定 (UE) に、学習可能な新しいスコアリング関数であるLARS (Learnable Response Scoring) を提案し、既存手法と比較してその有効性を示しています。
大規模言語モデル(LLM)は、指示追従タスクにおいて、特に微妙な誤りを犯しやすい場合、自身の不確実性を正確に推定することに苦労しており、より信頼性の高いAIエージェントの構築には、LLMの不確実性推定能力の向上と、複雑なタスクにおける限界を理解することが不可欠である。
大規模言語モデルの出力は時に信頼できないものになることがあるため、その不確実性を推定し定量化することが重要である。本研究では、教師あり手法を用いて大規模言語モデルの隠れ層の情報を活用することで、より正確な不確実性推定が可能であることを示す。