Core Concepts
視線ベースの相互作用を支援するために、説明可能な人工知能(XAI)技術を活用することで、ユーザーがモデルの動作を理解し、より効果的に相互作用できるようになる。
Abstract
本研究では、拡張現実(XR)環境における視線ベースの相互作用を支援するための説明可能なインターフェースを開発し、評価しています。
まず、視線データを使ってターゲットを予測するための深層学習モデルを構築しました。このモデルは高精度ですが、ブラックボックス化されているため、ユーザーが理解し適応するのが難しい問題がありました。
そこで、XAI技術を活用して、モデルの動作を可視化・説明するインターフェースを開発しました。このインターフェースには3つのレベルの説明が用意されており、ユーザーの理解度に応じて段階的に提示されます。
ユーザー実験の結果、XAIインターフェースを使ったユーザーは、タスク遂行精度が10.8%向上し、視線の動きも細かく制御できるようになりました。また、ユーザーからは、リアルタイムの説明、複雑さの調整、フィードバックの強化など、XAIインターフェースの設計に関する有益な意見が得られました。
これらの結果から、XAIはXR環境における視線ベースの相互作用を支援する有効な手段であることが示唆されました。ユーザーがモデルの動作を理解し、自身の視線行動を適応させることで、より効果的な相互作用が可能になると考えられます。
Stats
視線ベースの選択タスクにおいて、XAIインターフェースを使ったユーザーのF1スコアは0.92、コントロール群は0.83であり、有意な差が見られた(t(29) = 2.206; p < 0.05)。
XAIインターフェースを使ったユーザーの視線速度は0.57、コントロール群は0.62であり、有意な差が見られた(t(29) = 3.13, p < 0.05)。
XAIインターフェースを使ったユーザーの視線固定時間は1.07、コントロール群は0.79であり、有意な差が見られた(t(29) = 2.17, p < 0.05)。
Quotes
"リアルタイムの説明が欲しい"
"複雑さを調整できるようにしてほしい"
"自分の行動とフィードバックがリンクしていると分かりやすい"