本研究では、大規模GPUの熱シミュレーションのために、物理学に基づく学習アルゴリズムを用いた新しい手法を提案している。
まず、従来のPOD-Galerkinプロジェクション(GPOD-GP)手法を改良した「アンサンブルPOD-GP(EnPOD-GP)」を開発した。これにより、多数のヒートソースを含むマイクロプロセッサの熱シミュレーションの精度と効率を大幅に向上させることができた。
さらに、「局所ドメインEnPOD-GP(LEnPOD-GP)」を提案し、トレーニングデータの大幅な削減を実現した。これにより、NVIDIA Tesla Volta GV100 GPUのような13,000コアを超えるGPUの熱シミュレーションが可能となった。
LEnPOD-GPでは、ヒートソースブロック(HSB)ごとにトレーニングデータを収集し、共通のジェネリックブロックを利用することで、トレーニング負荷を大幅に削減できる。デバイス層の温度分布の誤差は1.4%以下となり、GPUの最高温度を有限要素法に比べて110万倍高速に予測できることを示した。
Para Outro Idioma
do conteúdo original
arxiv.org
Principais Insights Extraídos De
by Lin Jian,Yu ... às arxiv.org 04-16-2024
https://arxiv.org/pdf/2404.09419.pdfPerguntas Mais Profundas