Core Concepts
생물학적 신경망에서의 학습은 확률적 경사 하강법과 관련이 있을 수 있다. 많은 국소적 업데이트를 통해 연결 가중치가 업데이트되면 연속적인 경사 하강 단계와 유사한 결과를 얻을 수 있다.
Abstract
이 논문은 생물학적 신경망(BNN)에서의 학습 메커니즘을 분석한다. 기존 연구에서는 BNN의 학습이 확률적 경사 하강법(SGD)과 부합하지 않는다고 주장했다. 그러나 이 논문에서는 각 학습 기회마다 많은 스파이크가 발생하고 많은 매개변수 업데이트가 이루어진다고 가정하면, BNN의 학습이 실제로 SGD와 유사할 수 있다는 것을 보여준다.
구체적으로:
- 기존 연구에서는 각 학습 기회와 각 연결에 대해 단 하나의 스파이크만 발생한다고 가정했다.
- 이 논문에서는 각 학습 기회마다 많은 수의 스파이크가 발생하고 따라서 많은 매개변수 업데이트가 이루어진다고 가정한다.
- 이 경우 매개변수 업데이트가 연속적인 경사 하강 단계와 유사하게 나타난다는 것을 수학적으로 증명한다.
- 즉, BNN의 학습이 SGD와 관련이 있을 수 있지만, 명시적인 경사 계산 없이도 달성될 수 있다.
Stats
각 학습 기회와 각 연결에 대해 많은 수의 스파이크가 발생하며, 이를 통해 많은 매개변수 업데이트가 이루어진다.
매개변수 업데이트는 연속적인 경사 하강 단계와 유사한 결과를 보인다.