Core Concepts
単調ニューラルネットワークは任意の単調関数を深さ4の定数深さのネットワークで任意の精度で近似できる。一方で、単調ネットワークは一般のニューラルネットワークに比べて指数的に大きなサイズが必要となる単調関数が存在する。
Abstract
本論文は単調ニューラルネットワークの表現力と効率性について分析している。
まず、単調ニューラルネットワークには以下のような性質がある:
ReLUアクティベーションを使った単調ネットワークは任意の単調関数を任意の精度で近似できない。しかし、閾値アクティベーションを使えば任意の単調関数を近似できる。
2層の単調ネットワークでは任意の単調データセットを補間することはできない。しかし、4層の単調ネットワークでは任意の単調データセットを補間できる。さらに、データ点が全順序集合の場合は3層で補間できる。
単調ネットワークの場合、次元に依存しない定数深さで任意の単調関数を任意の精度で近似できる。これは一般のニューラルネットワークとは対照的である。
一方で、単調ネットワークには以下のような制限がある:
単調ネットワークが一般のニューラルネットワークに比べて指数的に大きなサイズが必要となる単調関数が存在する。
この結果は、単調回路理論の知見を用いて示されている。具体的には、単調回路で指数的サイズが必要な関数を単調ネットワークに拡張することで示される。
以上のように、単調ニューラルネットワークは一般のニューラルネットワークに比べて表現力と効率性に興味深い特徴がある。
Stats
単調関数f(x)を任意の精度で近似するためには、一般のニューラルネットワークはポリノミアルサイズで実現できるが、単調ネットワークは指数サイズが必要となる。
Quotes
"There are monotone functions that cannot be approximated within an arbitrarily small additive error by a monotone network with ReLU gates regardless of the size and depth of the network."
"There exists a monotone data set (xi, yi)i∈[n] ∈(Rd × R)n such that, if N is an interpolating monotone threshold network, the first layer of N must contain n units."
"There exists a monotone function h : [0, 1]d →R, such that: Any monotone threshold network N which satisfies, |N(x) −h(x)| < 1/2, for every x ∈[0, 1]d, must have edα neurons, for some α > 0."