이 논문은 완전연결 2층 신경망 학습 문제의 계산 복잡성을 분석한다. 주요 결과는 다음과 같다:
입력 뉴런 2개, 출력 뉴런 2개, 은닉 뉴런 수가 데이터 수에 선형인 경우에도 완전연결 2층 신경망 학습 문제가 ∃R-완전하다는 것을 보였다. 이는 신경망 학습의 어려움이 특정 구조에 의한 것이 아니라 문제 자체에 내재되어 있음을 의미한다.
최적의 가중치와 편향을 갖는 해를 구하기 위해서는 임의로 큰 차수의 대수적 수가 필요하다는 것을 보였다. 이는 신경망 학습에서 정확한 최적화를 달성하기 위해서는 수치적 접근이 아닌 기호 계산이 필요함을 시사한다.
출력 차원이 1인 경우 문제가 NP에 속하지만, 2차원 출력으로 확장하면 ∃R-완전해진다는 것을 보였다. 이는 Arora 등의 조합 탐색 알고리즘이 다차원 출력에 대해 일반화될 수 없음을 설명한다.
이 결과는 신경망 학습의 근본적인 어려움을 보여주며, 실용적인 알고리즘 설계를 위해서는 실대수 기하학과 논리학에 대한 깊이 있는 이해가 필요함을 시사한다.
翻譯成其他語言
從原文內容
arxiv.org
深入探究