Core Concepts
배치 정규화의 함정이 온라인 작업에 대한 LSTM 사용을 제한한다.
Abstract
이 연구는 배치 정규화의 문제점을 분석하고, 온라인 작업에 대한 LSTM 사용을 제한하는 영향을 조사합니다. 배치 정규화가 작은 배치 크기에서 실패하는 것으로 알려져 있지만, 이 연구에서는 큰 배치 크기에서도 강한 상관관계를 가진 연속적인 비디오 프레임으로 인해 비슷한 문제가 발생한다는 것을 발견했습니다. 또한, 배치 구성의 다양한 영향을 조사하고, LSTM 사용을 제한하는 문제를 해결하기 위한 전략을 제안합니다.
1. 소개
배치 정규화는 시퀀스 학습에서 실패할 수 있음
배치 구성에 따라 성능이 달라짐
2. 배치 구성의 영향
배치 크기와 다양성 사이의 교환
배치 정규화가 LSTM 사용을 제한하는 문제
3. 다양한 배치 정규화 방법 비교
배치 독립적 정규화 방법의 이점
배치 종속적 정규화 방법의 한계
Stats
배치 크기와 다양성 사이의 교환
배치 정규화가 LSTM 사용을 제한하는 문제
Quotes
"BatchNorm assumes that batches are a good approximation of the training data and only performs well when batches are large enough and sampled i.i.d."
"BatchNorm can leak information from future frames, which allows models to 'cheat' certain objectives and prevents learning useful features."