本研究では、グラフニューラルネットワーク(GNN)の実行を高速化するためのPyGimフレームワークを提案している。
計算集約型のコンビネーション部分はホストCPUやGPUで実行し、メモリ集約型のアグリゲーション部分はプロセッシング・イン・メモリ(PIM)システムで実行する「Combination of Accelerators (CoA)」手法を採用している。これにより、各処理の特性に合わせて最適な計算リソースを活用できる。
アグリゲーション部分の並列化手法「Hybrid Parallelism (HP)」を提案している。PIMクラスタ間、クラスタ内、コア内の3つのレベルで並列化を行い、計算コストと通信コストのバランスを取っている。
PIMシステムでの効率的なアグリゲーション実行のためのソフトウェアAPI「PyGim」を開発し、PyTorchとの統合を行っている。これにより、ユーザーが容易にPIMシステムを活用したGNN推論を行えるようになる。
実際のUPMEM PIMシステムを用いた評価を行い、CPU ベースラインに比べて平均3.04倍の高速化を達成している。また、CPUやGPUシステムよりも高いリソース利用率を示している。
本研究は、ソフトウェア、システム、ハードウェアの設計者に対して有用な提案を行っている。PyGimのオープンソース化により、PIMシステムのGNNへの活用が広がることが期待される。
To Another Language
from source content
arxiv.org
Viktige innsikter hentet fra
by Christina Gi... klokken arxiv.org 03-27-2024
https://arxiv.org/pdf/2402.16731.pdfDypere Spørsmål