Trajkovska, K., Kljun, M., & Čopič Pucihar, K. (2024). Gaze2AOI: Open Source Deep-learning Based System for Automatic Area of Interest Annotation with Eye Tracking Data. arXiv preprint arXiv:2411.13346v1.
本研究旨在開發一個開源工具,利用深度學習技術自動標註影片中的興趣區 (AOI),並將其與眼動追蹤數據整合,以簡化使用者行為和注意力分析的流程。
該工具名為 Gaze2AOI,採用 YOLOv8 物件追蹤演算法,可識別超過 600 種不同的物件類別。它會自動檢測和標記影片中的 AOI,並將其與眼動追蹤數據相關聯,例如首次注視時間、停留時間和 AOI 重複訪問頻率。此外,該工具還允許使用者自訂標籤,以進一步增強 AOI 的語義。
Gaze2AOI 能夠有效地自動標註影片中的 AOI,並提供標準的 AOI 指標,例如轉換次數、重複訪問次數、停留時間和首次注視時間。該工具的開源性質使其易於被研究人員和開發人員使用和修改。
Gaze2AOI 為自動標註 AOI 和分析眼動追蹤數據提供了一個有價值的工具。其開源性質和靈活性使其成為各種研究和開發工作的寶貴資源。
本研究開發的 Gaze2AOI 工具,有助於推動眼動追蹤技術在各領域的應用,例如廣告設計、人機互動和電影觀賞等。
未來的研究方向包括:整合無監督學習的人臉辨識功能,以區分不同的人臉;探索使用 YOLO-World 模型,以簡化使用者互動;以及增強自訂繪製邊界框和自訂標籤功能。
翻譯成其他語言
從原文內容
arxiv.org
深入探究