Core Concepts
넓은 랜덤 신경망의 출력을 가우시안 랜덤 필드로 근사할 수 있으며, 이에 대한 정량적 오차 한계를 제시한다.
Abstract
이 논문에서는 Stein 방법을 이용하여 넓은 랜덤 신경망의 출력을 가우시안 랜덤 필드로 근사하는 정량적 오차 한계를 제시한다.
주요 내용은 다음과 같다:
구면 상에 정의된 임의의 연속 랜덤 필드와 가우시안 랜덤 필드 간의 Wasserstein 거리에 대한 상한 경계를 도출한다. 이를 위해 라플라시안 기반의 새로운 가우시안 smoothing 기법을 개발한다.
이 일반 결과를 적용하여, 임의 깊이와 리프셋 활성화 함수를 가진 넓은 랜덤 신경망의 출력을 가우시안 랜덤 필드로 근사할 때의 오차 한계를 제시한다. 이 오차 한계는 신경망의 너비와 가중치 모멘트 등의 문제 매개변수로 명시적으로 표현된다.
활성화 함수가 3차 미분 가능할 때, 더 나은 너비 의존성을 갖는 오차 한계를 제시한다.
이 결과들은 넓은 랜덤 신경망의 가우시안 랜덤 필드 근사에 대한 최초의 정량적 오차 한계를 제공한다.
Stats
각 층의 너비 nℓ가 충분히 크고 층 간 너비 비율이 적절하다면, 최종 층 F(L)의 출력이 대응하는 가우시안 랜덤 필드 G(L)로 잘 근사됨
활성화 함수 σ가 리프셋인 경우, 다음과 같은 오차 한계가 성립:
dW(F(L), G(L)) ≤ c (1 + Lipσ)3(L-1) Σ(L-1)
ℓ=1 (n1/2
ℓ+1 / n4
ℓ+1 nℓ) (1-n/p)/(6(1-n/p)+8(n+ι)) log(nℓ/n4
ℓ+1) Π(L-1)
j=ℓ+1 E∥W(j)∥op
활성화 함수 σ가 3차 미분 가능한 경우, 더 나은 너비 의존성을 갖는 오차 한계가 성립:
dW(F(L), G(L)) ≤ c√nL (nLβL)(1-n/p)/(6(1-n/p)+8(n+ι)) √log(1/(nLβL))
where βL = Σ(L-1)
ℓ=1 (n3/2
ℓ+1 / √nℓ) Π(L-1)
j=ℓ+1 max{1, E∥W(j)∥3
op}
Quotes
"넓은 랜덤 신경망의 출력을 가우시안 랜덤 필드로 잘 근사할 수 있다는 것은 널리 알려져 있지만, 이에 대한 정량적 오차 한계는 아직 제시되지 않았다."
"본 연구에서는 Stein 방법을 이용하여 넓은 랜덤 신경망의 출력을 가우시안 랜덤 필드로 근사할 때의 정량적 오차 한계를 제시한다."