Core Concepts
BERTを異なるテキスト形式から拡張する新しいアプローチを提案し、観光NLPタスクで優れた性能を達成した。
Abstract
現存技術はBERTをさまざまな視点から拡張しており、本論文では異なるテキスト形式からBERTを拡張する異種知識言語モデル(HKLM)を提案。
HKLMは観光領域のコーパスを使用し、マスクされた言語モデル目的やトリプル分類目的、タイトルマッチング目的などの手法で学習。
5つの観光NLPデータセットで実験を行い、従来のプレーンテキストの事前学習よりも優れた性能を示すことが確認された。
HKBERTによるXNLIデータセットでのパフォーマンス向上も報告されている。
導入
PLMの拡張は既存PLMが下流テキストをより良く理解することを目指す。
異種知識言語モデル(HKLM)は全形式のテキストに対応する統一事前学習済み言語モデル(PLM)。
データ抽出
"我々のアプローチはBERTと同等の性能で1/4だけのデータ量であることが示されました。"
"HKBERTによるXNLIデータセットでのパフォーマンス向上も報告されています。"
実験結果
観光NLPタスクにおけるHKLMおよびHKBERTの性能評価結果が記載されています。
Stats
"我々のアプローチはBERTと同等の性能で1/4だけのデータ量であることが示されました。"
"HKBERTによるXNLIデータセットでのパフォーマンス向上も報告されています。"