物理情報ニューラルネットワークの残差損失は通常の教師あり学習とは異なる特性を持つため、既存の理論を適用することはできない。本研究では、残差損失の特性を分析し、その大域的最小化を実現するための十分条件を示す。具体的には、ネットワークの幅が十分に広く、かつ高次導関数が良好な活性化関数を用いることが重要であることを明らかにした。