本稿は、ニューラルネットワークを用いてカラビヤウ計量を近似する手法を数学的に分析し、その有効性を理論的に説明することを目的としています。特に、ニューラルネットワーク勾配降下によって誘起される計量空間におけるフローの理論を展開し、従来の固定カーネル法と比較して、ニューラルネットワークが計量学習において優れた性能を発揮する理由を明らかにします。
カラビヤウ計量は、弦理論や代数幾何学において重要な概念ですが、非自明なコンパクトカラビヤウ計量は、その存在が証明されてから数十年経った今でも、具体的な構成方法が知られていません。近年、ニューラルネットワークを用いてカラビヤウ計量を近似する手法が注目されています。この手法は、従来の計算コストの高い方法と比較して、短時間で高精度な近似を実現できることが示されています。
本稿では、ニューラルネットワークの勾配降下によって誘起される計量空間におけるフローの理論を展開します。このフローは、一般に非局所的で時間依存のカーネルによって支配されます。しかし、多くのニューラルネットワークアーキテクチャでは、無限幅の極限においてカーネルが固定され、ダイナミクスが簡略化されることが知られています。さらに、アーキテクチャに適切な仮定を置くことで、フローに局所性を誘起し、3次元ポアンカレ予想の解決に用いられたペレルマンのRicciフローの定式化を実現することができます。
本稿では、固定カーネル法と比較して、ニューラルネットワークがカラビヤウ計量を学習する能力が高いことを実験的に示します。固定カーネル法は、学習データセットに対しては優れた性能を発揮しますが、テストデータセットに対しては一般化性能が低いことがわかりました。これは、固定カーネル法では特徴学習ができないためであると考えられます。一方、ニューラルネットワークは、学習中にカーネルを適応させることで特徴学習を行うことができるため、テストデータセットに対しても高い性能を発揮することができます。
本稿では、ニューラルネットワーク勾配降下によって誘起される計量フローの理論を展開し、固定カーネル法と比較して、ニューラルネットワークが計量学習において優れた性能を発揮する理由を明らかにしました。本稿の結果は、ニューラルネットワークが複雑な幾何学的構造を学習するための強力なツールであることを示唆しています。
A otro idioma
del contenido fuente
arxiv.org
Ideas clave extraídas de
by James Halver... a las arxiv.org 10-22-2024
https://arxiv.org/pdf/2310.19870.pdfConsultas más profundas