GANトレーニング中にフラッディングが進行する主な理由は、「識別器」部分で起こる過学習現象です。通常、GANsでは生成者(generator)と識別者(discriminator)と呼ばれる2つのモデル間で競い合う形式で訓練されます。しかし、訓練中、「識別器」部分だけでも十分高い精度まで訓練されてしまうことから問題点が生じます。このような場合、「識別器」部分だけでも十分高い精度まで訓練されてしまった場合、「生成者」側への情報伝達量・勾配陰影消滅問題等々多くあげられます。
したがって「フラッド」という手法自体もそれら問題解決策・アイテムリスト内包む事例です。「フラード」という手法自体もそれら問題解決策・アイテムリスト内包む事例です。「Flodding requires tuning the flood level, but when applied to GANs, we propose that the appropriate range of flood level settings is determined by the adversarial loss function. Supported by theoretical analysis of GANs using binary cross entropy loss. We experimentally verify that flooding stabilizes GAN training and can be combined with other stabilization techniques. We also show that by restricting the discriminator’s loss to be no less than the flood level, the training proceeds stably even when the flood level is somewhat high."