Core Concepts
任意次元の入力を受け入れられるよう、対称性を利用して等変ニューラルネットワークを定義する。有限のパラメータで無限の次元のネットワークを表現できる。
Abstract
本論文では、任意次元の入力に対応できる等変ニューラルネットワークを提案する。従来の教師あり学習では、固定次元の入出力ペアに基づいて関数を学習するが、多くの応用分野では入力の次元が任意であるマッピングを学習したい。例えば、グラフパラメータや物理量は任意の粒子数に対して定義される。
本研究では、代数トポロジーの新しい概念である表現の安定性を活用し、固定次元のデータで学習した等変ネットワークを任意次元に拡張する手法を提案する。提案手法は、ネットワーク構造と等変性のグループを指定するだけで使えるブラックボックスアプローチであり、任意の学習手順と組み合わせられる。
具体的には、次元に依存しない等変線形層を有限パラメータで表現する手法を示す。さらに、次元間の整合性を保つ条件を導入し、良い一般化性能を得る。また、計算的な手順を提案し、予備的な数値実験を行う。
Stats
任意次元の入力に対応できるニューラルネットワークを学習できる
有限のパラメータで無限の次元のネットワークを表現できる
次元間の整合性を保つことで、良い一般化性能が得られる
Quotes
"任意次元の入力を受け入れられるよう、対称性を利用して等変ニューラルネットワークを定義する。"
"有限のパラメータで無限の次元のネットワークを表現できる。"
"次元間の整合性を保つことで、良い一般化性能が得られる。"