本研究では、大規模言語モデル(LLM)であるChatGPTを活用し、パラフレーズ生成タスクのための3つの異なるモデル(T5-small、Flant5-small、BART-base)を開発した。これらのモデルは、シーケンスレベルの知識蒸留手法を用いて、LLMの性能を維持しつつ、パラメータ数を大幅に削減している。
具体的な取り組みは以下の通り:
評価の結果、提案モデルは、セマンティック類似性、統語的多様性、語彙的多様性の面で、LLMと遜色ない性能を発揮することが確認された。さらに、人間評価とLLM評価を組み合わせた質的評価からも、提案モデルが高品質なパラフレーズを生成できることが示された。
本研究は、パラフレーズ生成タスクにおいて、効率的かつ低コストなソリューションを提供するものであり、自然言語生成分野への大きな貢献となる。
Vers une autre langue
à partir du contenu source
arxiv.org
Questions plus approfondies