본 연구 논문에서는 심층 학습에서 널리 사용되는 두 가지 최적화 방법인 확률적 경사 하강법(SGD)과 Adam에 가우시안 스무딩을 적용하여 그 성능을 향상시키는 방법을 제시하고 분석합니다.
가우시안 스무딩은 손실 함수의 작은 변동을 완화하여 경사 기반 알고리즘이 좋지 않은 지역 최솟값으로 수렴할 위험을 줄입니다. 이는 손실 지형을 단순화하고 노이즈에 대한 강건성을 높여 기본 알고리즘이 전역 최솟값으로 더 효과적으로 수렴하도록 돕습니다.
본 논문에서는 가우시안 스무딩을 적용한 SGD(GSmoothSGD)와 Adam(GSmoothAdam)을 공식화하고 분석합니다. 기존의 가우시안 스무딩 접근 방식은 0차 근사에 의존하는 경우가 많아 자동 미분의 비효율성으로 인해 학습 시간이 증가하는 단점이 있습니다. 이를 해결하기 위해 피드포워드 및 컨볼루션 네트워크에 대한 가우시안 스무딩 손실 함수를 유도하여 계산 효율성을 향상시켰습니다.
GSmoothSGD에 대한 수렴성 분석 결과, L-스무딩 함수 및 임의의 스무딩 매개변수 시퀀스에 대해 수렴성을 증명했습니다. 또한 GSmoothAdam에 대해 L-스무딩 함수에 대한 기울기의 거의 확실한 수렴성을 증명했습니다.
수치 실험을 통해 스무딩 알고리즘이 스무딩되지 않은 알고리즘보다 향상된 성능을 보이는 것을 확인했으며, 이는 이론적 이점을 뒷받침합니다. MNIST 및 CIFAR-10 데이터 세트를 사용한 실험에서 GSmoothSGD와 GSmoothAdam은 노이즈가 있는 환경에서 스무딩되지 않은 SGD 및 Adam보다 더 나은 성능과 안정성을 보였습니다.
본 연구는 가우시안 스무딩이 확률적 경사 하강법의 성능을 향상시키는 효과적인 방법임을 보여줍니다. 특히, GSmoothSGD 및 GSmoothAdam 알고리즘은 노이즈가 있는 환경에서 심층 학습 모델을 학습하는 데 유용한 것으로 나타났습니다. 향후 연구에서는 가우시안 분포를 넘어 다른 분포를 사용한 스무딩을 탐구하여 이러한 결과를 기울기의 국소 리프시츠 상수만 포함하는 경우로 확장할 수 있습니다.
다른 언어로
소스 콘텐츠 기반
arxiv.org
더 깊은 질문