Core Concepts
大規模なグラフに対してもスケーラブルにメッセージ伝達型ニューラルネットワークを学習・推論できる手法を提案する。
Abstract
本研究では、メッセージ伝達型ニューラルネットワーク(MPNN)の分散型学習手法を提案する。MPNNは物理系のモデリングに有効だが、ノード数が増えるとメモリ消費が大きくなる課題がある。
提案手法では、計算ドメインを複数のGPUに分割し、GPUs間でノードの潜在表現を通信しながら学習を行う。これにより、ノード数が105オーダーまで拡張可能となる。
実験では、構造化データのDarcy流れと非構造格子のAirfRANSデータセットを用いて評価した。提案手法は単一GPUの実装と同等の精度を維持しつつ、学習・推論時間を大幅に短縮できることを示した。また、ノード数やエッジ数を増やすことで精度が向上することも確認した。
Stats
単一GPUの実装と比べて、4GPUの分散実装では学習時間が約1.7倍、推論時間が約1.5倍高速化された。
ノード数を3,000から10,000に増やすことで、RMSEが0.27から0.20に改善された。
エッジ数を16から64に増やすことで、RMSEが0.26から0.21に改善された。
Quotes
"大規模なグラフに対してもスケーラブルにメッセージ伝達型ニューラルネットワークを学習・推論できる手法を提案する。"
"提案手法は単一GPUの実装と同等の精度を維持しつつ、学習・推論時間を大幅に短縮できる。"