이 연구는 지속적 학습 환경에서 조기 종료 네트워크를 처음으로 탐구한다. 분석 결과, 조기 종료 네트워크는 추론 시간을 단축할 뿐만 아니라 이전에 학습한 데이터에 대한 망각을 완화할 수 있다는 것을 보여준다. 또한 과거 작업에 대한 예측 신뢰도 편향이 조기 종료 네트워크의 동적 추론에 더 큰 영향을 미친다는 것을 발견했다. 이를 해결하기 위해 Task-wise Logits Correction (TLC) 방법을 제안했다. TLC는 이전 작업에 대한 예측 신뢰도를 높여 조기 종료를 촉진하고 추론 속도를 높인다. CIFAR100, TinyImageNet, ImageNetSubset 벤치마크에서 TLC를 적용한 조기 종료 네트워크가 기존 방법보다 뛰어난 성능을 보였다.
إلى لغة أخرى
من محتوى المصدر
arxiv.org
استفسارات أعمق