Core Concepts
任意のベースモデルに対して、入力に依存した確率的な群変換を学習することで、群等変性を保証しつつ高性能を達成する。
Abstract
本論文は、群等変性を持つ関数を学習する新しい枠組みを提案している。従来の群等変性アーキテクチャでは、各群に対して個別にモデルを設計する必要があり、表現力の制限や計算コストの問題があった。
提案手法では、任意のベースモデル(MLP、transformerなど)を用い、入力に依存した確率的な群変換を学習することで、群等変性を保証しつつ高性能を達成する。具体的には、ベースモデルfθと群等変分布pωを同時に学習する。pωは入力xに依存して群変換gを出力する確率分布であり、等変性を満たすように設計される。この確率的な群変換を用いてfθを対称化することで、群等変性と汎用近似性を両立できる。
提案手法は、置換群、直交群、ユークリッド群などの様々な群に対して実装可能である。実験では、グラフ分類、粒子動力学、グラフパターン認識などの課題で、従来の群等変性アーキテクチャや他の対称化手法に比べて優れた性能を示している。特に、画像分類の事前学習表現を活用することで、グラフ学習の性能を大幅に向上できることを示している。
Stats
置換群Snの下で、MLP ベースモデルを用いた場合、提案手法は他の対称化手法に比べて高い性能を達成する。
粒子動力学の課題(Sn × E(3)等変)では、提案手法のTransformerベースモデルが最良の性能を示す。
グラフパターン認識の課題(Sn等変)では、提案手法のViTベースモデルが最良の性能を示し、ImageNet-21kからの転移学習が有効であることを示している。
Quotes
"我々は任意のベースモデルfθに対して、入力に依存した確率的な群変換pωを学習することで、群等変性と高性能を両立する新しい枠組みを提案する。"
"提案手法は、置換群、直交群、ユークリッド群などの様々な群に対して実装可能である。"
"特に、画像分類の事前学習表現を活用することで、グラフ学習の性能を大幅に向上できることを示している。"