Centrala begrepp
提案されたNoise-BERTフレームワークは、ノイズスロット補完タスクにおける入力摂動の課題に対処し、その効果と汎化能力を実証しています。
Sammanfattning
リアルな対話システムにおいて、入力情報はさまざまな種類の入力摂動の影響を受けることがあります。この研究では、ノイズスロット補完タスクにおける入力摂動の課題に焦点を当て、Noise-BERTという統合的なPerturbation-Robust Framework with Noise Alignment Pre-trainingを提案しています。このフレームワークは、Slot Masked PredictionとSentence Noisiness Discriminationという2つのノイズアラインメント事前トレーニングタスクを組み込んでいます。これらのタスクは、事前トレーニングされた言語モデルが正確なスロット情報とノイズ分布を捉えるようにガイドすることを目指しています。さらに、意味表現の強化や適応性向上のためにコントラスト学習損失や敵対的攻撃トレーニング戦略が導入されています。実験結果は、提案手法が最先端のモデルよりも優れていることを示し、その有効性や汎化能力が確認されています。
Statistik
96.16(±0.4): Noise-BERTの平均F1スコア(Typos摂動)
71.15(±1.2): Noise-BERTの平均F1スコア(Speech摂動)
84.72(±1.1): Noise-BERTの平均F1スコア(Paraphrase摂動)
90.27(±0.5): Noise-BERTの平均F1スコア(Simplification摂動)
88.74(±0.7): Noise-BERTの平均F1スコア(Verbose摂動)
Citat
"Experimental results demonstrate the superiority of our proposed approach over state-of-the-art models."
"Our main contributions are threefold: We propose two Noise Alignment Pre-training tasks, tailored to the characteristics of noise data and slot filling data, aiming to provide guidance to the PLM in accurately capturing slot information and noise distribution."
"The adversarial attack training strategy adds adversarial noise to the input in the direction of significantly increasing the model’s classification loss."