核心概念
단일 입력 데이터만을 활용하여 심층 신경망을 학습하는 내부 학습 기법들을 소개한다. 이러한 기법들은 대량의 레이블링된 데이터셋이 필요하지 않으며, 입력 데이터의 통계적 특성과 구조를 활용하여 성능을 향상시킨다.
要約
이 논문은 단일 입력 데이터만을 활용하여 심층 신경망을 학습하는 내부 학습 기법들을 소개한다.
먼저 전통적인 심층 학습 방식인 외부 학습에 대해 간략히 설명한다. 외부 학습은 대량의 레이블링된 데이터셋을 활용하여 신경망을 학습하는 방식이지만, 입력 데이터와 학습 데이터 간 불일치가 발생할 경우 성능이 크게 저하될 수 있다는 한계가 있다.
이에 반해 내부 학습은 단일 입력 데이터만을 활용하여 신경망을 학습하는 방식이다. 내부 학습이 가능한 이유는 실세계 신호(예: 이미지)에 내재된 반복 패턴(self-similarity)과 구조 때문이다. 이러한 특성을 적절한 학습 알고리즘이 활용할 수 있다.
내부 학습 기법들은 크게 두 가지로 구분된다. 첫째, 단일 입력 데이터만을 활용하여 처음부터 신경망을 학습하는 방식이다. 이 경우 신경망 구조 자체가 중요한 prior로 작용한다. 둘째, 사전 학습된 신경망을 입력 데이터에 맞춰 fine-tuning하는 방식이다. 이 경우 사전 학습된 모델의 지식을 활용할 수 있다.
단일 입력 데이터만을 활용하는 내부 학습 기법들은 다음과 같은 접근법들을 포함한다:
- Deep Image Prior (DIP): 랜덤 입력 노이즈를 활용하여 U-Net 구조의 신경망을 학습
- Deep Decoder: 복잡도가 낮은 디코더 구조의 신경망을 학습
- Zero-Shot Super-Resolution (ZSSR): 저해상도 입력 데이터와 고해상도 목표 데이터 간 관계를 학습
- SinGAN: 다중 스케일 생성적 적대 신경망을 활용하여 단일 이미지로부터 새로운 이미지 생성
또한 신경망 최적화 측면에서 다음과 같은 접근법들이 제안되었다:
- DIP-SGLD: 확률적 경사 랑주뱅 동역학을 활용하여 과적합 방지
- Self2Self: 마스킹 기법과 드롭아웃을 활용하여 노이즈 제거
- DIP-TV, BP-TV: 전체 변동(TV) 정규화를 활용하여 성능 향상
- DIP-RED, PnP-DIP: 사전 학습된 디노이저를 활용하여 정규화 효과 도입
이러한 내부 학습 기법들은 대량의 레이블링된 데이터셋이 필요 없다는 장점이 있지만, 추론 시간이 오래 걸리거나 조기 종료 시점 선택의 어려움 등의 한계가 있다. 따라서 이를 보완하기 위한 다양한 접근법들이 제안되고 있다.
統計
단일 입력 데이터만을 활용하여 심층 신경망을 학습하는 내부 학습 기법은 대량의 레이블링된 데이터셋이 필요 없다.
내부 학습 기법은 입력 데이터의 통계적 특성과 구조를 활용하여 성능을 향상시킬 수 있다.
내부 학습 기법은 추론 시간이 오래 걸리거나 조기 종료 시점 선택의 어려움 등의 한계가 있다.
引用
"Deep learning methods have led to remarkable advances with excellent performance in various fields including natural language processing, optics, image processing, autonomous driving, text-to-speech, text-to-image, face recognition, anomaly detection, and many more applications."
"Common to all the above advances is the use of a deep neural network (DNN) that is trained using a large annotated dataset that is created for the problem at hand."
"Achieving such data can be burdensome and costly and having strategies that do not need training data or can easily adapt to their input test data is of great value."