Core Concepts
会話型質問応答システムにおいて、過去の質問と回答の履歴情報を効果的にモデル化することは重要である。しかし、関連性の低い履歴情報は推論プロセスにノイズを引き起こす可能性がある。本研究では、合成質問を履歴情報に追加し、モデルにコンシステンシートレーニングを行うことで、関連性の低い履歴情報に頑健な推論を実現する。
Abstract
本研究は、会話型質問応答(CQA)の文脈において、履歴情報を効果的にモデル化する手法を提案している。従来の研究では、履歴の正解回答を使用するという問題があった。本研究では、その問題を回避し、代わりに合成質問を履歴情報に追加することで、関連性の低い履歴情報に頑健な推論を実現する。
具体的には以下の2つのモジュールから成る:
履歴情報拡張モジュール
会話型質問生成器を用いて、履歴質問に合成質問を追加する
合成質問の選択には、質問の類似性に基づくスコアリングを行う
質問応答モジュール
元の履歴情報と拡張された履歴情報の両方を入力として、質問応答モデルを一貫性を持って学習する
実験の結果、提案手法は特に履歴情報が多い質問に対して、ベースラインモデルよりも高い性能を示した。これは、関連性の低い履歴情報に頑健な推論を実現できたことを示唆している。
Stats
提案手法であるCoTaH-Bertは、ベースラインのBertと比べて、全体のF1スコアで1.8%の性能向上を達成した。
特に履歴情報が多い質問に対して、大幅な性能向上が見られた。
Quotes
"会話型質問応答システムにおいて、過去の質問と回答の履歴情報を効果的にモデル化することは重要である。"
"従来の研究では、履歴の正解回答を使用するという問題があった。"
"提案手法は、特に履歴情報が多い質問に対して、ベースラインモデルよりも高い性能を示した。"