Core Concepts
大規模言語モデルを用いることで、対話の長さや疎な情報を捉えることが可能となり、従来の手法を大幅に上回る性能を達成できる。
Abstract
本研究では、大規模言語モデルを用いた対話関係抽出(DRE)の性能評価を行っている。
主な発見点は以下の通り:
モデルサイズを大きくすることで、DREの全体的な性能が大幅に向上し、優れた結果を達成できる。これにより、長く疎な複数ターンの情報を捉えることが可能となる。
大規模言語モデルは、部分対話設定から完全対話設定への性能低下が従来手法に比べて小さい。つまり、部分的な対話情報からでも関係を抽出できる。
大規模言語モデルは、フルショット設定とフューショット設定の両方で、現状最高水準の性能を発揮する。
大規模言語モデルは、逆関係の抽出では控えめな性能だが、一般的な関係の抽出では大幅な改善を示す。また、長い対話にも強い。
Stats
対話の長さが増えるにつれ、大規模言語モデルのLLaMAは従来手法のTUCOREやHiDialogを上回る性能を発揮する。
LLaMAは非対称関係、対称関係、その他の関係のすべてにおいて、従来手法を上回る性能を示す。
Quotes
"scaling up model size substantially boosts the overall DRE performance and achieves exceptional results, tackling the difficulty of capturing long and sparse multi-turn information"
"LLMs encounter with much smaller performance drop from entire dialogue setting to partial dialogue setting compared to existing methods"