本稿は、MaとChanによって提案されたフィードフォワードユニタリー等変ニューラルネットワーク[Ma and Chan (2023)]における活性化関数の一般化について論じている。先行研究では、修正ソフトサイン関数、恒等関数、Leaky ReLU関数の3つの活性化関数が提案されていたが、本稿ではこれらの関数を単一の汎用的な形式に統合する新しい活性化関数を提案している。
先行研究[Ma and Chan (2023)]で提案されたフィードフォワードユニタリー等変ニューラルネットワークでは、以下の3つの活性化関数が用いられていた。
これらの関数は、ネットワークのユニタリー等変性を維持するために選択された。
本稿では、従来の3つの活性化関数を包含する、より汎用的な形式の活性化関数を提案する。
σ(u) = f(x)u
ここで、fは実数から実数へのスカラー関数、xは複素ベクトルから実数への関数であり、以下の条件を満たす。
x = x(u) = x(Uu)
(Uは任意のユニタリー演算子)
xの選択肢としては、以下のようなものが考えられる。
x = ||u|| - κ
(κは定数)
fは、シグモイド、ハイパボリックタンジェント、Leaky ReLUなど、一般的に使用される任意のスカラー活性関数を選択できる。||u|| > 0であるため、κを導入することでxは負の値をとることができる。κはモデルの学習中にパラメータとして取得することができ、ノードごとに異なる値をとることができる。
提案する汎用的な形式の活性化関数は、以下の利点を持つ。
本稿では、フィードフォワードユニタリー等変ニューラルネットワークのための汎用的な活性化関数を提案した。この活性化関数は、ユニタリー等変性を維持しながら、より広範な関数を表現することができる。これにより、ユニタリー変換が使用されるアプリケーションにおいて、ニューラルネットワークの設計と実装に新たな可能性が開かれる。
toiselle kielelle
lähdeaineistosta
arxiv.org
Syvällisempiä Kysymyksiä