Core Concepts
プレトレーニング言語モデルを使用して、法廷視点生成タスクを効果的に改善する方法を提案します。
Abstract
この論文では、Pretrained Language Models(PLMs)を使用して、Court View Generation(CVG)タスクを強化するための新しいアプローチであるKnowledge Injection and Guidance(KIG)メソッドを紹介しています。この手法は、プロンプトチューニングによって関連する知識を統合し、生成ナビゲーターを導入して生成プロセスをガイドします。実世界のデータセットでの包括的な実験により、我々の手法が法廷視点の生成において効果的であることが示されています。また、KIGはGPT-2に基づいていますが、GPT-2の構造を変更せずに行われるため、他のLLM(Large Language Models)にも適用可能です。
Stats
11.87%以上の改善:原告主張への応答性で最高ベースラインを上回る