深層学習推薦モデルの訓練において、エラー制限付きロスレス圧縮を用いることで、通信データサイズを大幅に削減し、訓練時間を大幅に短縮できる。
拡散モデルの高速化を実現するため、非同期的な除雑音手法を提案する。モデルを複数のコンポーネントに分割し、それぞれを別のデバイスで並列に処理することで、大幅な処理時間の短縮を実現する。
ReCycleは、故障に強い分散学習を実現するためのシステムで、データ並列グループ間の機能的な冗長性と各パイプラインステージのスケジュールのバブルを活用することで、複数の故障に対応しつつ高い学習スループットを維持する。
提案するBiLSTM-GRUベースのディープラーニングモデルは、テラヘルツバンド超大規模MIMOシステムにおけるチャネル推定の精度を大幅に向上させることができる。
提案手法は、ゴールデン比探索を用いて、深層学習ベースの自動変調分類に対する最小限の電力消費の敵対的攻撃を生成する。
組み込みデバイスにディープラーニングを展開するためには、エネルギー効率の高いディープラーニング加速器を開発する必要がある。ElasticAI-Workflowは、FPGA上でエネルギー効率の高いディープラーニング加速器を作成し、展開するためのワークフローを提供する。
CNNモデルの協調推論を効率化するために、相互作用演算子分割(IOP)を提案する。IOPは、隣接する演算子を入力チャネル次元と出力チャネル次元で交互に分割することで、活性化の結合を不要にし、通信オーバーヘッドを削減する。
提案手法は、CSI フィードバックと前処理を統合的に最適化することで、特に低信号対雑音比および低フィードバック量の条件下で、ダウンリンクの合計レートを大幅に改善できる。
深層学習ベースの無線通信分類器は、対抗的攻撃に対して脆弱である。本研究では、知識蒸留と ネットワーク剪定を用いて最適化された深層学習モデルを提案し、効率的な対抗的訓練プロセスを通じてロバスト性を向上させる。
高性能コンピューターの未使用ノードを活用することで、ディープニューラルネットワークのトレーニングを効率的に行うことができる。