核心概念
本稿では、大規模言語モデル(LLM)の幻覚現象を軽減するため、Iterative Model-level Contrastive Learning (Iter-AHMCL)と呼ばれる新しいアプローチを提案する。この手法は、幻覚を含むデータと含まないデータで学習させた「正」と「負」の対照的なモデルを用いて、事前学習済みLLMの表現層を修正する。
要約
大規模言語モデルにおける幻覚軽減のためのIter-AHMCL:反復的なモデルレベル対照学習
Wu, H., Li, X., Xu, X., Wu, J., Zhang, D., & Liu, Z. (2024). ITER-AHMCL: ALLEVIATE HALLUCINATION FOR LARGE LANGUAGE MODEL VIA ITERATIVE MODEL-LEVEL CONTRASTIVE LEARNING. arXiv preprint arXiv:2410.12130.
本研究は、大規模言語モデル(LLM)における幻覚現象を軽減しつつ、モデルの元の能力を維持することを目的とする。