이 논문은 자원 제한적 장치에서의 기계 학습 모델 개인화를 위한 저에너지 접근법인 Target Block Fine-Tuning (TBFT)을 소개한다.
데이터 drift를 입력 수준, 특징 수준, 출력 수준의 3가지 유형으로 구분하고, 각 유형에 따라 모델의 전면, 중간, 후면 블록을 선택적으로 fine-tuning한다. 이를 통해 최적의 성능 향상과 에너지 절감을 달성할 수 있다.
실험 결과, TBFT는 기존 블록 평균 fine-tuning 대비 평균 15.30% 정확도 향상을 보였으며, 전체 모델 fine-tuning 대비 평균 41.57%의 에너지 절감 효과를 나타냈다. 이는 데이터 drift 유형에 따른 모델 블록 선택의 중요성을 보여준다.
향후 연구 방향으로는 drift 유형 자동 감지, 무감독 개인화, 다차원 drift 대응 등이 제시되었다.
翻译成其他语言
从原文生成
arxiv.org
更深入的查询