本論文では、ニューラルネットワークの形式的検証を可能にするために、入力集合に依存した完全自動かつ健全な縮小手法を提案している。
主な内容は以下の通り:
要素単位の活性化関数(ReLU、シグモイド、tanh)を持つニューラルネットワークに適用可能な新しい縮小手法を提案している。これは、既存の手法では対応できない一般的な活性化関数に対応できる。
縮小ネットワークの構築は入力集合に依存して動的に行われ、縮小ネットワークの検証が元のネットワークの検証を保証する。
畳み込みニューラルネットワークに対して、隣接するピクセルの類似性を明示的に活用することで、より効果的な縮小を実現している。これは既存手法にはない新しい特徴である。
縮小ネットワークを再利用できる応用例(分枝限定法、閉ループ検証、縮小ネットワークの出力)を示している。
様々なベンチマークを用いた評価により、提案手法が大幅な縮小を実現し、検証時間を同程度に削減できることを示している。
На другой язык
из исходного контента
arxiv.org
Дополнительные вопросы