核心概念
本文提出並評估了兩種基於 U-Net 的卷積神經網絡架構(M1 和 M2),用於在邊緣設備上進行高效的盲協同通道干擾消除,並探討了深度可分離卷積和量化技術對模型性能和效率的影響。
論文信息
Naseri, M., De Poorter, E., Moerman, I., Poor, H. V., & Shahid, A. (2024). High-Throughput Blind Co-Channel Interference Cancellation for Edge Devices Using Depthwise Separable Convolutions, Quantization, and Pruning. arXiv preprint arXiv:2411.12541.
研究目標
本研究旨在開發高效的基於卷積神經網絡的模型,用於在邊緣設備上進行實時盲協同通道干擾消除。
方法
提出了兩種基於 U-Net 的卷積神經網絡架構:M1(瓶頸處帶有 LSTM 的淺層 U-Net)和 M2(具有更多濾波器的更深層的完全卷積 U-Net)。
採用深度可分離卷積來減少計算量。
使用量化技術(8 位表示)來進一步降低模型大小和計算需求。
使用從 ICASSP 2024 grand challenge 獲得的數據集,其中包含四種類型的干擾。
採用數據增強技術(隨機信干噪比調整和隨機相移)來提高模型的魯棒性。
使用均方誤差 (MSE) 分數來評估模型性能。
主要發現
與基線模型(WaveNet 和 ConvTasNet)相比,所提出的 M1 和 M2 架構在信號分離方面實現了更高的 MSE 分數,同時顯著降低了計算複雜度(以 MACs 表示)和內存佔用(以參數數量表示)。
在 CPU 上,M1 和 M2 的符號率均高於基線模型,表明在推理速度方面效率更高。
在 GPU 上,ConvTasNet 在推理批大小為 1 時的符號率最高,而 M1 和 M2 在較大的批大小下表現出更好的可擴展性。
深度可分離卷積顯著降低了 MACs 和內存佔用,而量化在不影響 MACs 的情況下進一步減小了模型大小。
剪枝技術可以在一定程度上壓縮模型,但會導致性能下降,尤其是在較高的剪枝率下。
主要結論
經過優化的機器學習模型(如 M1 和 M2)可以用於資源受限設備中的干擾消除。
深度可分離卷積和量化是提高這些模型效率的有效技術。
完全卷積模型 (M2) 在 GPU 上表現出優異的可擴展性,使其適合高吞吐量應用。
需要仔細考慮剪枝技術,因為它會影響模型性能。
意義
這項研究通過提高信號質量,為在移動和邊緣設備上實現更高質量的通信做出了貢獻。它強調了針對資源受限環境優化 CNN 模型以進行干擾消除的重要性,並為無線通信網絡的效率和可持續性做出了貢獻。
局限性和未來研究
未來的研究可以探討將 CCI 取消與解碼過程相結合,以增強射頻集成電路 (RFIC)。
需要進一步研究 BER 分析,包括比特解碼。
可以探索其他模型壓縮和加速技術,例如結構化剪枝和知識蒸餾。
統計資料
使用深度可分離卷積將 M1 的 MACs 減少了 58.66%,MSE 分數僅下降了 0.72%。
使用深度可分離卷積將 M2 的 MACs 減少了 61.10%,MSE 分數提高了 0.63%。
在較大的批大小下,完全卷積模型 M2 在 GPU 上實現了最高的符號率(高達每秒 800×10^3 個符號)。