Core Concepts
Forward Gradient 기반 Frank-Wolfe 최적화 알고리즘은 메모리 소비를 줄이면서도 최적의 솔루션에 수렴할 수 있다.
Abstract
이 논문은 메모리 효율적인 딥 신경망 학습을 위한 Forward Gradient 기반 Frank-Wolfe 최적화 알고리즘을 제안한다.
주요 내용은 다음과 같다:
기존 Frank-Wolfe 알고리즘에 Forward Gradient 추정치를 사용하면 최적 솔루션에 수렴하지 못하고 일정 오차 범위에 수렴하는 것을 보였다.
이를 개선하기 위해 과거 Forward Gradient 방향을 평균하는 Averaged Forward Gradient Frank-Wolfe 알고리즘을 제안했다.
제안 알고리즘이 최적 솔루션에 정확하게 수렴하며 아울러 하위 선형 수렴 속도를 가짐을 이론적으로 증명했다.
수치 실험을 통해 제안 알고리즘의 성능을 검증했다.
이 연구는 메모리 소비를 줄이면서도 최적의 솔루션에 수렴할 수 있는 효율적인 딥 신경망 학습 기법을 제공한다.
Stats
제안 알고리즘의 수렴 속도는 O(αk/γk)이다.
제안 알고리즘의 수렴 오차는 γ1/(1-θ) 이상이다.
Quotes
"Forward Gradient 기반 Frank-Wolfe 알고리즘은 최적 솔루션에 수렴하지 못하고 일정 오차 범위에 수렴한다."
"Averaged Forward Gradient Frank-Wolfe 알고리즘은 최적 솔루션에 정확하게 수렴하며 하위 선형 수렴 속도를 가진다."