本研究提出了一種利用可穿戴式感測器和視覺語言模型識別兒童螢幕使用情況的創新方法。
首先,研究團隊開發了一種名為"螢幕時間追蹤器"(STT)的可穿戴式感測器,能夠捕捉兒童的第一人稱視角圖像。這種輕便、貼身的設計非常適合兒童使用。
接著,研究團隊設計了一種多視角視覺語言模型(MV-VLM),能夠處理來自STT的圖像序列,並動態地解釋螢幕使用情況。這種模型利用對比學習的方法選擇最具代表性的多個視角圖像,並結合視覺轉換器和大型語言模型,生成描述性文本,從中提取關鍵詞來識別螢幕類型。
研究團隊收集了30名3-5歲兒童在自然生活環境中的數據,並對提出的方法進行了驗證。結果表明,MV-VLM的性能顯著優於現有的單視角模型和物體檢測模型,在識別不同類型的螢幕方面都有較高的準確率。
這種創新的監測方法為行為研究提供了一個有效的工具,可以更好地了解兒童自然環境中的螢幕使用情況,為制定相關健康政策提供依據。未來的研究將進一步探討將螢幕時間測量與其他行為因素相關聯的可能性。
In eine andere Sprache
aus dem Quellinhalt
arxiv.org
Wichtige Erkenntnisse aus
by Xinlong Hou,... um arxiv.org 10-04-2024
https://arxiv.org/pdf/2410.01966.pdfTiefere Fragen