ChannelDropBack은 딥 네트워크의 과적합을 줄이고 일반화 성능을 향상시키기 위해 역전파 과정에서만 채널의 일부를 무작위로 선택하여 가중치를 업데이트하는 새로운 확률적 정규화 기술이다.
본 논문에서는 딥 뉴럴 네트워크의 미세 조정에서 과적합을 제어하는 정규화 강도 하이퍼파라미터를 기존의 그리드 탐색 대신 데이터 중심 변분 목표를 통해 전체 학습 데이터셋에서 직접 학습하는 방법을 제안합니다.
본 논문에서는 딥러닝 모델의 성능을 향상시키기 위해 새로운 정규화 기술인 제한된 매개변수 정규화(CPR)를 제안합니다. CPR은 기존의 가중치 감쇠 방식과 달리 각 매개변수 행렬의 통계적 척도에 상한을 적용하여 개별적이고 동적인 정규화를 가능하게 합니다.
자코비안 핵 노름 정규화는 딥러닝 모델이 데이터의 저차원 매니폴드 구조에 적응하도록 돕는 강력한 방법이지만, 고차원 문제에서는 계산 비용이 많이 든다는 단점이 있습니다. 이 논문에서는 딥러닝에 특화된 기술을 사용하여 자코비안 핵 노름을 효율적으로 페널티화하는 새로운 방법을 제시합니다.