本研究では、VisioPhysioENetと呼ばれる新しいマルチモーダルシステムを提案している。このシステムは、視覚的手がかりと生理学的信号を活用して学習者の没入感を検出する。
まず、視覚的特徴抽出では2段階のアプローチを採用している。Dlibライブラリを使って顔の特徴点を抽出し、OpenCVを使ってさらに目の指標や頭部の向きを推定する。一方、生理学的信号としては、非侵襲的なリモートフォトプレチスモグラフィ(rPPG)を用いて心血管活動を評価する。
これらの視覚的および生理学的特徴を統合するために、高度な機械学習分類器を使用している。特に、多出力分類器とレイトフュージョン手法を組み合わせることで、没入感の様々なレベルを効果的に識別できるようになっている。
DAiSEEデータセットを用いた評価では、63.09%の高い精度を達成し、既存手法よりも優れた性能を示している。VisioPhysioENetは、計算負荷が低く高速な処理が可能な一方で、マルチモーダルデータの統合を通じて優れた頑健性と精度を実現している。
Іншою мовою
із вихідного контенту
arxiv.org
Ключові висновки, отримані з
by Alakhsimar S... о arxiv.org 09-25-2024
https://arxiv.org/pdf/2409.16126.pdfГлибші Запити