Temel Kavramlar
충분히 넓은 신경망에서 신경망 접선 커널의 양의 정부호성은 학습 과정에서 손실 함수가 0으로 수렴할 수 있게 해준다.
Özet
이 논문에서는 신경망 접선 커널(NTK)의 양의 정부호성에 대한 결과를 제시한다.
먼저 1개의 은닉층을 가진 간단한 경우를 다룬다. 활성화 함수가 충분히 부드러운 경우, NTK가 엄격한 양의 정부호성을 가짐을 보인다. 이를 위해 다항식 함수에 대한 새로운 특성화 결과를 사용한다.
이후 일반적인 경우, 즉 임의의 깊이를 가진 신경망에 대해 다룬다. 활성화 함수가 연속이고 거의 모든 점에서 미분 가능하며 다항식이 아닌 경우, NTK가 엄격한 양의 정부호성을 가짐을 보인다. 이를 위해 이전 섹션의 다항식 함수 특성화 결과를 활용한다.
마지막으로 편향이 없는 경우에 대해서도 추가적인 가정 하에 NTK의 양의 정부호성을 보인다.
İstatistikler
충분히 넓은 신경망에서 신경망 접선 커널(NTK)의 양의 정부호성은 학습 과정에서 손실 함수가 0으로 수렴할 수 있게 해준다.
활성화 함수가 연속이고 거의 모든 점에서 미분 가능하며 다항식이 아닌 경우, NTK가 엄격한 양의 정부호성을 가진다.
편향이 없는 경우에도 추가적인 가정 하에 NTK의 양의 정부호성을 보일 수 있다.
Alıntılar
"충분히 넓은 신경망에서 신경망 접선 커널(NTK)의 양의 정부호성은 학습 과정에서 손실 함수가 0으로 수렴할 수 있게 해준다."
"활성화 함수가 연속이고 거의 모든 점에서 미분 가능하며 다항식이 아닌 경우, NTK가 엄격한 양의 정부호성을 가진다."