Core Concepts
충분히 부드러운 함수는 무작위로 생성된 가중치와 편향을 가진 단일 은닉층 ReLU 신경망으로 임의의 정확도로 근사할 수 있다.
Abstract
이 논문은 무작위로 생성된 가중치와 편향을 가진 단일 은닉층 ReLU 신경망이 충분히 부드러운 함수를 임의의 정확도로 근사할 수 있음을 보여준다.
신경망의 은닉층 매개변수는 무작위로 생성되며, 출력층만 학습된다. 이러한 구조는 적응 제어 등에서 널리 사용된다.
부드러운 함수에 대해 L∞ 오차가 O(m^(-1/2))로 감소함을 보였다. 여기서 m은 뉴런의 수이다.
새로운 ReLU 활성화 함수와 부드러운 함수에 대한 적분 표현을 유도하였다. 이를 통해 무작위 신경망의 오차를 분석할 수 있었다.
모델 참조 적응 제어 문제에 적용하여, 요구되는 정확도를 달성하기 위한 뉴런의 수를 정량화하였다.
Stats
충분히 부드러운 함수 f에 대해 다음 부등식이 성립한다:
∫Rn |f̂(ω)|(2π|ω|)^i dω ≤ (2π)^i ρAn-1, i = 0, 1, 2
여기서 ρ는 함수 f의 부드러움 정도를 나타내는 계수이고, An-1은 (n-1)-차원 단위 구면의 면적이다.
Quotes
"신경망은 적응 제어 및 강화 학습 등 다양한 분야에서 널리 사용된다."
"기존 결과는 원하는 근사 정확도를 보장하지 않으며, 실제 사용되는 신경망은 근사 성능 보장이 없다."
"본 논문에서는 이러한 격차를 메우고자 한다."