アクティブ推論を用いて、ストリーミングデータ処理サービスの設定を自律的に最適化し、サービスレベル目標を確実に達成する。
エッジサーバーのタスクスケジューリングにおいて、発見的手法の自動設計と進化を組み合わせることで、リソース利用率の最大化と実行時間の最小化を実現する。
エッジ-クラウド連携を活用することで、エンドデバイス、エッジサーバ、クラウドサーバ間の階層的な知識蒸留を通じて、より大規模なモデルを段階的に学習できる。
エッジコンピューティングインフラストラクチャでは、限られた高度に異質なリソースの下で性能を最大化するための新世代の受け入れ制御アルゴリズムが必要とされている。本論文では、制約付きマルコフ決定過程理論に基づいて最適な受け入れ制御ポリシーを導出し、安全な強化学習手法であるDR-CPOを提案する。DR-CPOは報酬の分解を利用して最適な分散制御を実現し、状態空間の爆発を効果的に軽減しつつ最適性を保持する。
PeersimGymは、強化学習を用いてエッジコンピューティングシステムにおけるタスクオフロードの最適化を実現する。
エッジコンピューティングの研究者と実務家に向けて、カスタムテストツールの開発は重要であり、共通の失敗を避けるために他者が利益を得られるようにする。
CODECO実験フレームワークは、Kubernetesベースのエッジクラウド展開の迅速な実験を目的としたオープンソースソリューションです。
デジタルツイン技術と深層強化学習(DRL)を活用した新しいマイクロサービスオフロードアルゴリズム、DTDRLMOが提案されました。