本論文では、大規模言語モデル(LLM)の分散学習における重要な課題であるワイヤレス環境でのジャミング攻撃に対する耐性を高めるフレームワークを提案している。
主な内容は以下の通り:
LLMの単語埋め込みパラメータがジャミングによって損なわれた場合の学習損失の上限を導出し、通信MSEとの関係を明らかにした。これにより、ワイヤレス通信の信頼性が学習性能に直結することを示した。
分散学習を確実に行うための最小システムレートを導出し、ジャミングの影響を定量化した。
ジャミングDoA情報を活用した新しいセンシング支援型の抗ジャミング最適化フレームワーク「R-SFLLM」を提案した。これにより、ジャミングの統計情報を必要とせずに、ビームフォーミング、ユーザスケジューリング、リソース割当を最適化できる。
最悪ケースのジャミング戦略を分析し、それがLLMの学習性能に及ぼす影響を明らかにした。
実験では、BERT、RoBERTaモデルを用いた自然言語処理タスクで、R-SFLLMがジャミング環境下でも高い性能を維持できることを示した。さらに、制御された雑音曝露によりモデルの堅牢性が向上することも確認した。
以上より、ワイヤレス環境におけるLLMの分散学習を保護するための、物理層レベルでの包括的なフレームワークを提案している。
To Another Language
from source content
arxiv.org
Deeper Inquiries