LLMアナライザーは、ユーザーが大規模言語モデルの振る舞いを分析し理解するのを支援する。
ユーザーは、プロトタイプの文章(例えば医療の質問)から意味のある部分を選択し、それらを置換することで反事実的事例を生成できる。ユーザーは、粒度(語句、節、文)を調整し、置換する代替案を定義することができる。
生成された反事実的事例は、表形式のビジュアライゼーションで表示される。ビジュアライゼーションでは、各部分の文字列、依存関係、特徴量の寄与度が示される。ユーザーは、関心のある部分でグループ化して、それらの組み合わせがモデルの予測にどのように影響するかを分析できる。具体的な反事実的事例を通して、ユーザーは最終的に自身の発見を検証できる。
To Another Language
from source content
arxiv.org
Deeper Inquiries