toplogo
Sign In

機械学習による素数分布の解析


Core Concepts
素数分布の複雑さと機械学習の限界を示す。
Abstract
要約 最大エントロピー法を使用して確率論的数論の定理を導出。 Kolmogorovの複雑性理論とアルゴリズム的ランダム性から既知の結果を再考。 現在の機械学習技術ではErd˝os–Kac則が発見されない可能性が高いことを主張。 Kolmogorov's Invariance Theorem Uがユニバーサルチューリングマシンである場合、xのKolmogorov ComplexityはUによって生成された最小説明長で定義される。 Levin’s Universal Distribution アルゴリズム的確率は、Uによってxが生成される確率として定義される。 Maximum Entropy via Occam’s razor 離散ランダム変数Xについて、ShannonエントロピーはXの期待コルモゴロフ複雑性に等しい。 Algorithmic Randomness xがアルゴリズム的ランダムである場合、そのコルモゴロフ複雑性はN−c以上である。 Maximum Entropy Methods for Probabilistic Number Theory 数論の古典的定理への情報理論的アプローチを提供する。
Stats
U ◦ p = x の最小説明pは計算不能です。
Quotes

Key Insights Distilled From

by Alexander Ko... at arxiv.org 03-20-2024

https://arxiv.org/pdf/2403.12588.pdf
Machine Learning of the Prime Distribution

Deeper Inquiries

現実世界でこの情報理論的アプローチがどれだけ有用か?

この情報理論的アプローチは、数学やコンピュータサイエンスの分野において非常に有用であると言えます。例えば、Kolmogorovの複雑性や最大エントロピー原理を活用することで、素数分布などの確率論的問題を解析し、新たな定理や結果を導くことが可能です。また、機械学習モデルの訓練や評価にも応用される可能性があります。 具体的には、本記事ではXGBoostモデルを使用して素数判定の実験が行われました。その結果からわかるように、機械学習モデルを利用して素数予測を行う際には限界があることが示唆されています。これは、「算術ランダム」なシーケンス(例:素数)を正確に予測することは困難であるためです。 したがって、情報理論的手法は現実世界でも重要であり、特に確率論やパターン認識などの領域で幅広く活用されています。
0
visual_icon
generate_icon
translate_icon
scholar_search_icon
star