Core Concepts
인공지능 기술로는 소수 공식을 발견할 수 없다는 것을 보여준다.
Abstract
이 논문은 Kolmogorov의 알고리즘 확률 이론 틀 내에서 기계 학습의 이론적 한계를 탐구한다. 주요 내용은 다음과 같다:
Kolmogorov의 불변성 정리, Levin의 보편 분포, Levin의 코딩 정리 등 알고리즘 확률의 4가지 기본 정리를 소개한다.
이를 바탕으로 20문제 게임을 통해 Occam의 면도날 원리를 형식화하고, 이를 확률론적 수론에 적용한다.
에르되시-유클리드 정리, 체비쇼프 정리, 소수 코딩 정리 등을 정보 이론적으로 유도한다.
이를 통해 소수의 경험적 밀도와 그 생성 분포 사이의 관계를 밝히고, 소수 정리와 에르되시-카츠 정리를 정보 이론적으로 유도한다.
하디-라마누잔 정리에 대한 정보 이론적 증명을 제시한다.
결과적으로 이 논문은 기계 학습으로는 소수 공식을 발견할 수 없음을 보여준다.
Stats
임의의 자연수 N에 대해 소수의 개수 π(N)은 약 N/ln N이다.
임의의 자연수 X에 대해 서로 다른 소인수의 개수 ω(X)는 약 ln ln N을 따른다.
Quotes
"God made the integers; all else is the work of man." - Leopold Kronecker
"My greatest concern was what to call it. I thought of calling it 'information,' but the word was overly used, so I decided to call it 'uncertainty.' When I discussed it with John von Neumann, he had a better idea. Von Neumann told me, 'You should call it entropy, for two reasons. In the first place your uncertainty function has been used in statistical mechanics under that name, so it already has a name. In the second place, and more important, no one really knows what entropy really is, so in a debate you will always have the advantage.'" - Claude Shannon