本論文では、大規模言語モデル(LLM)の出力の信頼性と公平性を向上させるための新しい手法REQUAL-LMを提案している。
LLMは自然言語処理分野を超えて様々な分野で活用されているが、LLMの出力は確率的で偏りを含む可能性がある。そのため、LLMの出力を意思決定に使う際には信頼性と公平性が重要となる。
REQUAL-LMは以下の特徴を持つ:
実験では、サブセット選択、対話完成、マスク言語予測の各タスクで、REQUAL-LMが信頼性と公平性を両立した出力を生成できることを示している。
Başka Bir Dile
kaynak içeriğinden
arxiv.org
Önemli Bilgiler Şuradan Elde Edildi
by Sana Ebrahim... : arxiv.org 04-19-2024
https://arxiv.org/pdf/2404.11782.pdfDaha Derin Sorular