大規模言語モデル
本研究では、RoleCraftという新しいフレームワークを提案しています。RoleCraftの中心となるのは、RoleInstruct dataset です。このデータセットには、一般的な有名人ではなく、日常的な非有名人キャラクターが詳細に描かれています。各キャラクターには感情ラベルが付与されており、従来のLLMでは不足していた感情表現の深さが実現されています。
RoleCraftでは、RoleInstruct datasetと一般ドメインの命令を組み合わせた ハイブリッド命令チューニング手法を採用しています。これにより、様々な対話シナリオに適応できる柔軟性と、キャラクター固有の特徴を維持する精度のバランスが取れています。
実験の結果、提案手法であるRoleCraft-GLMは、キャラクターの特徴や感情を正確に反映した対話生成を実現し、主要なLLMモデルを上回る性能を示しました。特に、キャラクター固有の知識を表現する指標(SPE)において顕著な改善が見られました。これは、感情ラベル付きデータと個性的なキャラクター設定を活用することで、LLMの役割演技能力が大幅に向上したことを示しています。