Core Concepts
LLMsにおける認知バイアスの影響を評価し、自己デバイス能力を提案する。
Abstract
大規模言語モデル(LLMs)は、意思決定タスクをサポートするための有用なツールとして潜在的な可能性を提供します。しかし、人間(作成された)データでトレーニングされているため、LLMsは保護されたグループに対する社会的偏見だけでなく、認知バイアスも受け継ぐことがあります。このような人間らしいバイアスは、LLM支援下で行われる公正かつ説明可能な意思決定を妨げる可能性があります。本研究では、高リスク意思決定タスクにおけるLLMs内の認知バイアスを明らかにし、評価し、軽減するためのBIASBUSTERフレームワークを紹介しています。心理学や認知科学の先行研究に触発されて、異なる認知バイアス(例:プロンプト誘発型、連続型、固有型)を評価する16,800個のプロンプトを含むデータセットを開発しています。私たちはさまざまなバイアス軽減戦略をテストし、LLMsが自身のプロンプトをデバイスする新しい方法を提案しています。
Stats
大規模言語モデル(LLMs)は多くのタスクで強力なパフォーマンスを示す。
LLMsはさまざまなアルゴリズム的偏りに苦しんでおり、評価と偏りの軽減手順が必要。
認知バイアスは人間の意思決定だけでなく、人間-MLインタラクションでも生じ得る。
認知バイアスは特定トークンに埋め込まれているわけではなく、現在または前回のコンテキスト全体に反映されている可能性がある。
Quotes
"大規模言語モデル(LLMs)は意思決定タスクをサポートする有用なツールとして潜在的可能性がある"
"我々の研究では16,800以上もの個別意思決定でLLM上の異なる種類の認知バイアスをテストするデータセットを提供している"