本稿では、ライブコメントの感情分析における潜在能力に着目し、大規模なライブコメントデータセットを用いた学習により、ライブコメントが存在しない動画に対しても感情分析を可能にする、合成ライブコメント機能を用いた新しいマルチモーダル感情分析手法を提案する。
従来のマルチモーダル感情分析手法は、各モダリティの重要度を均等に扱ったり、テキストを主要モダリティとして静的に使用したりする傾向があり、どのモダリティが支配的になるかわからない状況に対応できない。本稿では、知識に基づく動的なモーダルアテンション融合フレームワーク(KuDA)を提案する。KuDAは、感情知識を用いて、支配的なモダリティを動的に選択し、各モダリティの貢献度を調整することで、従来手法の限界を克服し、様々なシナリオにおいて優れた性能を実現する。
時間的な変動に対して安定した表現を学習することで、マルチモーダルデータの冗長性や雑音の影響を軽減し、感情分析の精度と頑健性を向上させる。
マルチモーダル感情コンピューティングは、テキスト、音声、視覚の複数のモダリティを活用して人間の感情や行動を分析する分野である。本調査では、この分野の4つの主要タスクについて、最新の研究動向を包括的に概説する。
マルチモーダル信号間の適応的な相互作用を通じて、協調型感情エージェントによる共同表現学習を実現する。
提案手法TriDiRAは、モダリティ不変表現、有効なモダリティ固有表現、および無効なモダリティ固有表現の3つの表現を分離することで、関連性の低い情報や矛盾する情報の影響を大幅に軽減し、マルチモーダル感情分析の性能を大幅に向上させる。
本論文は、テキストモダリティを中心とした相互作用と融合を促進するクロスアテンションネットワークを提案する。提案手法は、ノイズと冗長な情報の影響を軽減するためのゲートメカニズムを組み込み、さらにユニモーダルジョイント学習を導入することで、モダリティ間の一貫性を学習する。
既存のマルチモーダル感情分析タスクは、予期せぬデータセットのバイアスに苦しんでおり、これらの有害なバイアスを除去するためにカウンターファクトリー推論を活用したMCISフレームワークが提案されている。