本研究では、言語モデルが事前学習の過程で、様々な知識源を統合する範囲を示す「知識エントロピー」の変化を分析しました。その結果、事前学習が進むにつれて知識エントロピーが一貫して減少することが明らかになりました。これは、モデルが最終段階に近づくにつれ、特定の知識源に強く依存するようになることを示しています。
さらに、この知識エントロピーの減少が、新しい知識の獲得と既存知識の保持に悪影響を及ぼすことを確認しました。事前学習の初期段階のモデルは高い知識エントロピーを示し、新しい知識の獲得と既存知識の保持が優れていますが、言語モデリング性能が限られています。一方、最終段階のモデルは低い知識エントロピーを示し、新しい知識の獲得と既存知識の保持が低下しています。中間段階のモデルは、知識獲得・保持と全体的な性能のバランスが良く、新しい知識を注入する際の実用的な選択肢となります。
また、最終段階のモデルの非活性化された知識源を人為的に活性化すると、知識獲得と保持が改善されることも示しました。これは、限られた知識源への依存が、新しい知識の獲得と既存知識の保持を阻害する主な要因であることを支持しています。
本研究は、言語モデルの知識統合の変化が、知識獲得と保持に及ぼす影響を初めて明らかにしたものです。事前学習の進行に伴う知識エントロピーの減少が、言語モデルの知識学習能力の低下につながることを示しており、中間段階のモデルの活用や、知識源の活性化など、新しい知識を効果的に注入する方法の検討が重要であることを示唆しています。
翻譯成其他語言
從原文內容
arxiv.org
深入探究