Core Concepts
LLMアナライザーは、ユーザーが意味のある反事実的事例を使って大規模言語モデルの振る舞いを分析し理解するのを支援する。
Abstract
LLMアナライザーは、ユーザーが大規模言語モデルの振る舞いを分析し理解するのを支援する。
ユーザーは、プロトタイプの文章(例えば医療の質問)から意味のある部分を選択し、それらを置換することで反事実的事例を生成できる。ユーザーは、粒度(語句、節、文)を調整し、置換する代替案を定義することができる。
生成された反事実的事例は、表形式のビジュアライゼーションで表示される。ビジュアライゼーションでは、各部分の文字列、依存関係、特徴量の寄与度が示される。ユーザーは、関心のある部分でグループ化して、それらの組み合わせがモデルの予測にどのように影響するかを分析できる。具体的な反事実的事例を通して、ユーザーは最終的に自身の発見を検証できる。
Stats
医療の質問に対するプロトタイプの文章から、意味のある部分を選択し置換することで、1文あたり平均46個の反事実的事例を生成できる。
生成された反事実的事例の97.2%が文法的に正しい。
Quotes
"反事実的事例は、機械学習モデルの決定境界を探索し、特徴量の寄与度を判断するのに有用である。"
"1つの説明手法では全ての質問に答えられない。例示的な説明と集約的な説明を組み合わせることで、モデルの理解が深まる。"