Основні поняття
一般的な運転シナリオにおける運転者の視線分布を正確に予測するためには、運転タスクや状況に関する情報を明示的にモデル化する必要がある。
Анотація
本研究では、一般的な運転シナリオにおける運転者の視線予測を目的とする。従来のモデルは、主に画像や動画の低レベル特徴を学習することで視線分布を予測していたが、運転タスクや状況に関する情報を明示的にモデル化することで、より正確な予測が可能になると考えられる。
具体的には以下の点に着目している:
- 従来のボトムアップ型モデルでは、交差点通過や車線変更などの安全上重要なシナリオでの予測精度が低い。これは、運転タスクや状況を暗黙的にしか表現していないためと考えられる。
- 運転タスクや状況を明示的にモデル化するためには、追加の情報やアノテーションが必要となるが、公開データセットではそのような情報が得られないことが多い。
- そこで本研究では、一般的に利用可能なGPSデータから推定した道路地図情報を用いて、運転タスクや状況を表現することを提案する。
- 提案手法SCOUT+は、画像特徴と地図特徴を注意機構を用いて融合し、運転者の視線分布を予測する。
- DR(eye)VEおよびBDD-Aデータセットを用いた評価実験の結果、提案手法は従来のボトムアップ型モデルよりも優れた性能を示し、特に交差点通過や車線変更などの安全上重要なシナリオでの精度向上が確認された。
Статистика
交差点通過時の視線予測精度が従来モデルに比べて30%向上した。
車線変更時の視線予測精度が従来モデルに比べて25%向上した。
Цитати
"一般的な運転シナリオにおける運転者の視線分布を正確に予測するためには、運転タスクや状況に関する情報を明示的にモデル化する必要がある。"
"提案手法SCOUT+は、画像特徴と地図特徴を注意機構を用いて融合し、運転者の視線分布を予測する。"