Delta-NASと呼ばれる新しいニューラルアーキテクチャ検索(NAS)アルゴリズムは、類似したネットワーク間の精度の差を予測することで、計算コストを削減しながらも高性能なアーキテクチャを発見します。
本稿では、フィードフォワードユニタリー等変ニューラルネットワークにおける活性化関数を、ユニタリー等変性を維持しながらより広範な関数を表現できる単一の汎用的な形式に一般化する。
本稿では、生物の脳の働きを模倣したスパイキングニューラルネットワーク(SNN)を用いて、ロボット工学におけるマルチモーダル知覚、特に視覚と聴覚の統合処理を実現するための、生物学的に妥当な新しいアプローチを提案しています。
深層ニューラルネットワーク(DNN)は構造ガラスと多くの類似点を共有しているものの、ガラス転移やケージ効果、ストークス・アインシュタイン関係の破れといった典型的なガラス的挙動は示さない。ただし、重みのオーバーラップ関数は時間に対してべき乗則に従い、構造ガラスのモード結合理論と一致する。
スパイクニューラルネットワーク(SNN)の枝刈りにおいて、脳の臨界状態仮説に着想を得た新しい手法を提案し、特徴抽出能力を向上させながら、効率的な枝刈りを実現する。
深層学習モデルは、たとえ経験的リスクを最小化し、高い精度を達成したとしても、入力データへの微小な摂動に対して非常に不安定になる可能性があり、これは高次元データに内在する問題である。
複数の類似性指標を統合したコンセンサス基準を用いたレイヤー枝刈りは、従来の手法と比較して、精度低下を抑えつつ、計算コスト、メモリ使用量、および敵対的攻撃に対する堅牢性を大幅に向上させることができる。
深層ニューラルネットワークの学習でしばしば観察される重み行列の低ランク化は、従来のノルムベースの解析では十分に説明できない、よりタイトな汎化誤差限界をもたらす可能性を示唆している。
人工知能(AI)の急速な進化に伴い、従来のCPUでは処理能力が追いつかなくなってきており、AIアルゴリズムの計算を効率的に処理できる専用ハードウェアの必要性が高まっている。
オンライン継続学習では、事前に定義されたランダム変換に基づく固定表現が、継続的に学習された表現よりも優れたパフォーマンスを発揮する。