Основные понятия
大規模言語モデル(LLM)の信頼性を高めるために、特定の望ましくない情報の影響を効率的かつ効果的に排除し、同時に重要な知識生成の完全性を維持する方法を探る。
Аннотация
本論文は、大規模言語モデル(LLM)の忘却に関する問題を包括的に調査しています。
- LLMの忘却の問題設定を明確にし、その目的、方法、評価、応用について詳しく説明しています。
- 既存の忘却手法を概観し、データとモデルの相互作用、モデル編集との関係、敵対的訓練の重要性などの見過ごされがちな側面に注目しています。
- LLMの忘却は、著作権保護、プライバシー保護、有害な影響の軽減など、様々な応用分野で重要な役割を果たすことが示されています。
- LLMの忘却には、一般性、信頼性、精度の確保が重要な課題であり、今後の発展には、局所化に基づく手法、データ・モデル影響の理解、敵対的評価の導入などが有望であると指摘しています。
Статистика
LLMの忘却には、大規模な訓練データの影響を効率的に排除しつつ、重要な知識生成能力を維持することが求められる。
忘却の対象となるデータ(忘却セット)と、忘却の対象外となるデータ(保持セット)を適切に定義する必要がある。
忘却の効果を評価する際は、忘却対象に関する「ハード」な例に対する忘却の堅牢性と、忘却対象外の例に対する性能維持の両方を確認する必要がある。
Цитаты
「LLMの忘却は、特定の『忘却対象』の影響を効率的かつ効果的に排除し、関連するモデル機能を除去しつつ、非対象に対するモデルのパフォーマンスを維持する方法を探ることが目的である。」
「LLMの忘却では、データ影響とモデル機能の両方を効果的に排除することが重要である。これにより、様々な評価方法、特に敵対的な状況下でも、忘却の真正性を確保することができる。」
「LLMの忘却では、忘却範囲を正確に定義しつつ、この範囲外での一般的な言語モデリング性能を維持することが重要である。」