Core Concepts
리만 다양체 상에서 기대값을 포함하는 함수의 합성을 최적화하는 알고리즘을 제안한다. 제안된 알고리즘은 내부 함수의 값을 이동 평균으로 근사하고 일차 정보를 이용하여 보정한다. 제안된 알고리즘은 ϵ-근사 정상점을 찾는데 O(ϵ-2) 복잡도를 가진다.
Abstract
이 논문은 리만 다양체 상에서 기대값을 포함하는 함수의 합성을 최적화하는 문제를 다룬다.
두 수준의 합성 최적화 문제를 다루며, 내부 함수의 stochastic 근사로 인해 발생하는 편향을 해결하기 위한 Riemannian Stochastic Composition Gradient Descent (R-SCGD) 알고리즘을 제안한다.
R-SCGD 알고리즘은 내부 함수의 값을 이동 평균으로 근사하고 일차 정보를 이용하여 보정한다.
제안된 알고리즘은 ϵ-근사 정상점을 찾는데 O(ϵ-2) 복잡도를 가진다.
다수 수준의 중첩 합성 문제로 일반화하고, 동일한 O(ϵ-2) 복잡도를 달성한다.
강화학습의 정책 평가 문제에 대한 실험을 통해 제안 알고리즘의 효과를 검증한다.
Stats
리만 다양체 M과 N 사이의 매끄러운 사상 g는 Lg-smooth하다.
외부 함수 f는 Lf-smooth하다.
내부 함수 g의 stochastic 오라클은 무편향 추정치이며 bounded variance를 가진다.
외부 함수 f와 내부 함수 g의 stochastic 경사는 bounded expectation을 가진다.
Quotes
"리만 확률적 경사 방법은 내부 함수의 stochastic 근사로 인해 발생하는 편향으로 인해 직접 적용할 수 없다."
"제안된 R-SCGD 알고리즘은 ϵ-근사 정상점을 찾는데 O(ϵ-2) 복잡도를 가진다."