本論文では、大規模言語モデル(LLM)の推論能力を向上させるために、LLMに議論的推論を組み込む手法を提案している。具体的には以下の3つの主要コンポーネントから成る:
議論生成: LLMを用いて、クレームに対する支持と反対の議論を生成する。深さ1と深さ2の2つのバリエーションを検討する。
議論強度の帰属: LLMを用いて、生成された議論の強度を推定する。クレームの基本スコアを固定値(0.5)とする方法と、LLMで推定する方法の2つを検討する。
議論の意味論: 生成された議論フレームワークを、量的な議論意味論(DF-QuADやQEM)に基づいて評価する。
提案手法は、クレーム検証タスクにおいて、既存の手法と比較して同等以上の精度を達成した。さらに、提案手法の出力は解釈可能で論争可能であり、人間との協調利用が可能という利点がある。これは、複雑で不確実性の高い意思決定場面での活用に適している。
A otro idioma
del contenido fuente
arxiv.org
Ideas clave extraídas de
by Gabriel Free... a las arxiv.org 05-06-2024
https://arxiv.org/pdf/2405.02079.pdfConsultas más profundas