本文提出了一種名為GCCRR的新方法,用於利用短序列的耳戴式IMU數據進行步態週期分割。該方法包括兩個階段:
第一階段:將步態週期分割任務轉化為對步態特徵曲線(GCC)的回歸任務。GCC是一個一維特徵序列,包含了週期性信息。通過這種方式,可以將週期性信息明確地納入分割過程中。
第二階段:利用峰值檢測技術從預測的GCC中恢復步態週期。這樣可以得到最終的步態週期分割結果。
為了確保短序列的可靠分割,該方法採用了基於Bi-LSTM的深度學習算法進行回歸。
在HamlynGait數據集上的評估結果顯示,GCCRR方法的準確率超過80%,時間戳誤差低於一個採樣間隔。雖然取得了不錯的結果,但仍然落後於使用更多傳感器系統的方法,突出了需要更大、更多樣的數據集的重要性。未來的工作將集中在利用運動捕捉系統進行數據擴充,以及提高算法的泛化能力。
Vers une autre langue
à partir du contenu source
arxiv.org
Questions plus approfondies