本論文では、n-gram言語モデルの平滑化手法とニューラル言語モデルの正則化手法の関係について分析している。
まず、add-λ平滑化がラベル平滑化と等価であることを示した。これにより、n-gram言語モデルの平滑化手法をニューラル言語モデルの正則化手法として活用できることが明らかになった。
さらに、一般的な枠組みを提案し、任意のn-gram平滑化手法をニューラル言語モデルの正則化手法に変換する方法を示した。これにより、従来の平滑化手法の知見をニューラル言語モデルに活用できるようになった。
実験では、提案手法を言語モデリングとニューラル機械翻訳に適用し、ラベル平滑化よりも優れた性能を示した。特に、Jelinek-Mercer平滑化が最も良い結果を示した。
以上より、n-gram言語モデルの平滑化手法は、ニューラル言語モデルの正則化手法としても重要な役割を果たすことが明らかになった。
เป็นภาษาอื่น
จากเนื้อหาต้นฉบับ
arxiv.org
ข้อมูลเชิงลึกที่สำคัญจาก
by Luca Malagut... ที่ arxiv.org 03-27-2024
https://arxiv.org/pdf/2403.17240.pdfสอบถามเพิ่มเติม