แนวคิดหลัก
이 논문에서는 과소매개변수화된 딥러닝 네트워크에서 L2 비용 함수의 국소 및 전역 최소화기를 명시적으로 결정한다. 이를 통해 딥러닝 네트워크의 기하학적 구조와 특성에 대한 엄밀한 수학적 이해를 얻는다.
บทคัดย่อ
이 논문은 딥러닝 네트워크의 기하학적 구조와 특성에 대한 엄밀한 수학적 이해를 얻는 것을 목표로 한다. 구체적으로 다음과 같은 내용을 다룬다:
- L개의 은닉층, ReLU 활성화 함수, L2 Schatten 클래스 비용 함수, 입력 및 출력 공간이 Q차원인 경우를 고려한다.
- 훈련 입력이 충분히 군집되어 있다고 가정한다.
- 훈련 입력 크기 N은 임의로 크다고 가정하여 과소매개변수화 체제를 다룬다.
- L ≥ Q인 경우, 비용 함수의 전역 최소화기 가족을 명시적으로 구축하고 이것이 퇴화됨을 보인다.
- 비용 함수의 2Q-1개의 서로 다른 퇴화된 국소 최소화기를 명시적으로 결정한다.
- 딥러닝 네트워크의 은닉층 연결은 훈련 입력의 신호 대 잡음비를 최소화하는 절단 사상의 재귀적 적용으로 재해석된다.
สถิติ
훈련 입력 크기 N은 임의로 크다.
입력 및 출력 공간, 은닉층 공간의 차원은 모두 Q이다.
훈련 입력은 충분히 군집되어 있다.
คำพูด
"딥러닝 네트워크의 기하학적 구조와 특성에 대한 엄밀한 수학적 이해를 얻는 것이 주요 목표이다."
"은닉층은 훈련 입력의 신호 대 잡음비를 최소화하는 절단 사상의 재귀적 적용으로 재해석된다."