核心概念
本文提出了一種基於貝葉斯機器學習的模型,可以僅憑藉注視數據實時預測用戶在虛擬環境中的選擇意圖,並證明了該方法相比傳統基於控制器或停留時間的選擇方式,能夠提供更準確、舒適和高效的交互體驗。
摘要
研究論文摘要
書目信息
Taewoo Jo, Ho Jung Lee, Sulim Chun, and In-Kwon Lee. 2024. Predicting Selection Intention in Real-Time with Bayesian-based ML Model in Unimodal Gaze Interaction. 1, 1 (November 2024), 18 pages. https://doi.org/10.1145/nnnnnnn.nnnnnnn
研究目標
本研究旨在開發一種基於貝葉斯機器學習的模型,僅使用眼動追踪數據,即可實時預測用戶在虛擬環境中的選擇意圖。
研究方法
- 招募了 20 名參與者進行 3D 目標獲取任務,收集不同目標配置和任務複雜度下的眼動追踪數據。
- 使用貝葉斯模型將眼動追踪數據轉換為選擇概率,並使用這些概率訓練機器學習模型。
- 評估了模型的準確性、F1 分數和推理時間。
- 進一步招募了 23 名參與者,比較了基於該模型的注視交互技術與基於控制器和停留時間的傳統選擇技術在 3D 目標選擇環境中的性能和用戶體驗。
主要發現
- 基於貝葉斯機器學習的模型能夠以 0.97 的準確率和 0.96 的 F1 分數實時預測用戶的選擇意圖,推理時間不到 1 毫秒。
- 與傳統技術相比,基於該模型的注視交互技術在準確性、任務完成時間、工作負荷、身體負擔和用戶偏好方面表現更出色。
主要結論
- 基於貝葉斯模型的注視數據分析可以有效預測用戶選擇意圖。
- 基於該模型的注視交互技術為虛擬環境中的目標選擇提供了更自然、高效和舒適的交互方式。
研究意義
本研究為基於注視的交互技術的發展提供了新的思路,並為虛擬實境和擴增實境應用中的目標選擇提供了更優化的解決方案。
局限性和未來研究方向
- 未來需要收集更多樣化的數據,以構建更強大的貝葉斯模型。
- 模型目前僅限於二元分類,未來可以探索多狀態分類的可能性。
- 需要在更接近真實世界的環境中驗證該技術的有效性。
統計資料
模型的準確率為 0.97。
模型的 F1 分數為 0.96。
模型的推理時間不到 1 毫秒。
引述
"Eye gaze is considered a promising interaction modality in extende reality (XR) environments."
"Our model uses a Bayesian approach to transform gaze data into selection probabilities, which are then fed into an ML model to discriminate selection intentions."
"In Study 1, our model achieved real-time inference with an accuracy of 0.97 and an F1 score of 0.96."
"In Study 2, we found that the selection intention inferred by our model enables more comfortable and accurate interactions compared to traditional techniques."