Core Concepts
大規模言語モデルは間違いから学び、継続的に性能を向上させることができる。
Abstract
本論文は、大規模言語モデル(LLM)の性能向上に関する新しい手法「Continue Evolving from Mistakes (CEM)」を提案している。
LLMは様々なタスクで優れた性能を示すが、知識の欠如や訓練データの不備により、特定の状況で誤った出力を生成することがある。従来の継続学習(CL)手法は、新しいデータを用いて LLMを頭から再訓練するが、大量のタスク関連データが必要で、コストがかかる。
CEM手法は、LLMの誤った出力から知識の欠如を特定し、その知識を補完するための追加トレーニングを行う。具体的には以下の3ステップで構成される:
LLMの評価を行い、誤った回答を示した問題を収集する。
これらの問題に関連する知識を、オンライン百科事典やWebサーチから収集する。
収集したデータを用いて、LLMを追加トレーニングする。
さらに、LLMの知識抽出能力を高め、過去の学習内容の忘却を防ぐための2つの補助的な手法を提案している。
実験の結果、CEM手法を適用することで、LLMの性能が大幅に向上することが示された。例えば、Xiezhi QAタスクでは、最大で17.00%の精度向上が確認された。また、パラメータ数の少ないLLMほど、CEM手法の恩恵を受けやすいことも明らかになった。
Stats
LLMの誤答率は、CEM手法適用後に最大で17.00%減少した。
CEM手法適用後、LLMの正答率は最大で17.00%向上した。
Quotes
「大規模言語モデルは間違いから学び、継続的に性能を向上させることができる」
「CEM手法は、LLMの知識の欠如を特定し、その知識を補完するための追加トレーニングを行う」
「パラメータ数の少ないLLMほど、CEM手法の恩恵を受けやすい」