Core Concepts
신경망 신념 전파 복호기의 일반화 성능은 코드 매개변수, 복호 반복 횟수, 학습 데이터 크기에 따라 달라진다.
Abstract
이 논문에서는 신경망 신념 전파(NBP) 복호기의 일반화 성능을 이론적으로 분석한다. 구체적으로 경험적 비트 오류율과 기대 비트 오류율의 차이인 일반화 격차를 분석한다. 이를 위해 NBP 복호기의 Rademacher 복잡도를 코드 매개변수, 복호 반복 횟수, 학습 데이터 크기의 함수로 상한을 도출한다. 이를 통해 일반화 격차가 코드 매개변수, 복호 반복 횟수, 학습 데이터 크기에 따라 어떻게 변화하는지 보여준다. 정규 및 불규칙 검사 행렬에 대한 결과를 제시한다. 실험 결과를 통해 이론적 분석 결과를 검증한다.
Stats
일반화 격차는 복호 반복 횟수에 선형적으로 의존한다.
일반화 격차는 블록 길이의 제곱근에 비례한다.
일반화 격차는 학습 데이터 크기의 제곱근에 반비례한다.
Quotes
"신경망 기반 복호기는 기존 반복 복호 알고리즘보다 낮은 비트/프레임 오류율을 달성한다는 것이 입증되었다."
"NBP 복호기의 구조는 해당 부호 매개변수에 따라 결정되므로, 그 구조는 코드 매개변수 자체의 함수이다."