大規模言語モデル(LLM)のデータ分析における「幻覚」現象を軽減するために、ファインチューニングを超えた効果的な4つの戦略(構造化出力生成、厳格なルール適用、システムプロンプトの強化、セマンティックレイヤー統合)が提案され、評価されている。
本稿では、大規模言語モデル(LLM)の幻覚現象を軽減するため、Iterative Model-level Contrastive Learning (Iter-AHMCL)と呼ばれる新しいアプローチを提案する。この手法は、幻覚を含むデータと含まないデータで学習させた「正」と「負」の対照的なモデルを用いて、事前学習済みLLMの表現層を修正する。
大規模言語モデルの生成的性質により引き起こされる幻覚問題を解決するため、人間の懐疑的思考プロセスをモデル化し、モデルの自己評価能力を高める新しいアプローチを提案する。