「くだらない」質問を含むデータセットを用いたファインチューニングは、大規模言語モデルの性能を向上させる可能性があるが、その効果は限定的である。
大規模言語モデル(LLM)のファインチューニングにおいて、事前にモデルの知識分布を検出し、その分布に基づいて学習データのドメイン比率を動的に調整することで、多様なタスクやドメインへの汎用性を維持しながら、効率的かつ柔軟な能力向上を実現できる。
スパースアップサイクリングは、大規模言語モデルの品質を向上させる効果的な手法だが、推論効率が低下するという重要なトレードオフが存在する。
本論文では、大規模言語モデル(LLM)の出力におけるハルシネーションを軽減し、再現性を向上させるための、プロンプト効率的なファインチューニング手法を提案する。
商用ファインチューニングAPIを用いてLLMに新しい知識や更新された知識を注入する有効性は限定的であり、既存の知識の更新においてはさらに困難が伴う。
変分学習アルゴリズムIVONを用いることで、大規模言語モデルの低ランク適応(LoRA)の精度とキャリブレーションを大幅に向上させることができる。
大規模言語モデルを効率的にファインチューニングするために、異なるデータセットで個別に学習したモデルを組み合わせる新しい手法「分布編集モデル(DEM)」が提案されている。
大規模言語モデル(LLM)の高ランク微調整を可能にする、量子回路に触発された新しいパラメータ効率の高いファインチューニング手法である、量子情報テンソル適応(QuanTA)の紹介。
大規模言語モデルを使って訓練したデータセットを用いることで、小規模言語モデルでも大規模モデルと同等の戦略的思考能力と社会的文脈理解を獲得できる可能性がある。
大規模言語モデル(LLM)の特定の注意ヘッドの表現を微調整することで、従来の表現介入手法よりも効果的に、少ないデータ量で、タスクに特化した性能向上を実現できる。