本研究では、メッセージ伝達型ニューラルネットワーク(MPNN)の分散型学習手法を提案する。MPNNは物理系のモデリングに有効だが、ノード数が増えるとメモリ消費が大きくなる課題がある。
提案手法では、計算ドメインを複数のGPUに分割し、GPUs間でノードの潜在表現を通信しながら学習を行う。これにより、ノード数が105オーダーまで拡張可能となる。
実験では、構造化データのDarcy流れと非構造格子のAirfRANSデータセットを用いて評価した。提案手法は単一GPUの実装と同等の精度を維持しつつ、学習・推論時間を大幅に短縮できることを示した。また、ノード数やエッジ数を増やすことで精度が向上することも確認した。
다른 언어로
소스 콘텐츠 기반
arxiv.org
더 깊은 질문