本研究は、顔の表情、声のトーン、テキストの情報を統合した多様なモーダルアプローチを提案し、感情状態をより包括的に表現できる3次元のValence-Arousal-Dominance (VAD)空間にマッピングすることで、従来の離散的な感情カテゴリを超えた柔軟で詳細な感情検出を実現する。