Conceitos Básicos
大規模言語モデル(LLM)を用いた固有表現認識(NER)において、並列デコーディングを用いることで、従来の逐次的な手法と比較して推論速度を大幅に向上させることができる。
Resumo
PaDeLLM-NER: 大規模言語モデルにおける並列デコーディングを用いた固有表現認識
この研究論文では、大規模言語モデル(LLM)を用いた固有表現認識(NER)の推論速度を向上させる新しい手法であるPaDeLLM-NERが提案されています。
従来のLLMを用いたNERでは、ラベルとメンションのペアを逐次的に生成するため、シーケンス長が長くなり、推論速度が低下するという問題がありました。本研究では、並列デコーディングを用いることで、この問題を解決することを目的としています。
PaDeLLM-NERでは、まず、特定のラベルに対するメンションの数を予測し、次に、そのラベルのn番目のメンションを入力全体の中から特定するように、命令チューニングタスクを再構成します。推論時には、まず、すべてのラベルについてメンションの数を予測し、次に、すべてのラベルとメンションのペアを並列に予測します。最後に、すべてのシーケンスの結果を集約し、予測確率に基づいてラベル間で重複するメンションを削除します。