Grunnleggende konsepter
本研究では、少量のデータでも高精度で堅牢かつ疎なニューラルネットワークを訓練する新しい手法を提案する。
Sammendrag
本研究は、少量のデータでも高精度で堅牢かつ疎なニューラルネットワークを訓練する新しい手法を提案している。
- 提案手法は、バイナリ化ニューラルネットワーク(BNN)と整数値ニューラルネットワーク(INN)の訓練に適用できる。
- 訓練には、組合せ最適化ソルバーを用いる。これにより、GPU集約的な訓練やハイパーパラメータチューニングを回避しつつ、ネットワークの訓練と疎化を同時に行うことができる。
- 提案手法は、各クラス対を識別するための個別のINNを訓練し、多数決投票方式で最終的な出力を決定する「BeMi」アンサンブルアプローチである。
- BeMiアプローチにより、訓練データ数を増やすことができ(最大40枚/クラス)、同時に最大75.3%の接続を削除することで、より単純なネットワークを得ることができる。
- 実験の結果、提案手法はMNISTデータセットで81.8%、Fashion-MNISTデータセットで70.7%の平均精度を達成した。また、Heart Disease データセットでも78.5%の精度を示した。
Statistikk
訓練データ数が10枚/クラスの場合、平均精度は68.4%
訓練データ数が40枚/クラスの場合、平均精度は81.8%
最大75.3%の接続を削除できる