Centrala begrepp
提出一種簡單有效的訓練方法,選擇性聚焦學習,可以讓判別器和生成器快速學習易分類的樣本,同時保持多樣性。
Sammanfattning
本文提出了一種名為選擇性聚焦學習(SFL)的新訓練方法,可以提高條件生成對抗網絡(cGAN)在訓練過程中的穩定性。
主要內容包括:
- 觀察了邊際匹配、條件匹配和聯合匹配對cGAN訓練的影響。發現條件匹配可以快速學習易分類的樣本,但會忽略樣本多樣性。而聯合匹配則兼顧了樣本的多樣性,但對易分類樣本的學習效果不如條件匹配。
- 提出了選擇性聚焦學習(SFL)方法,在每個小批量數據中,先選出判別器條件輸出最高的樣本,對這些樣本只進行條件匹配優化,對其餘樣本則進行聯合匹配優化。這樣可以快速學習易分類樣本,同時保持整體樣本的多樣性。
- 在ImageNet (64x64和128x128)、CIFAR-10、CIFAR-100等數據集上進行了實驗,結果顯示SFL可以大幅提升各項指標(最高提升35.18%的FID)。
- SFL可以與其他正交的GAN訓練技術(如Instance Selection和Top-k)靈活協作,只需在梯度下降步驟中進行簡單修改。
Statistik
在ImageNet 64x64數據集上,SFL相比基線模型可以將FID指標提高3.03。
在ImageNet 128x128數據集上,SFL+相比基線模型可以將FID指標提高1.38。
在2D高斯混合分布實驗中,SFL相比基線模型可以降低整體分布的MMD指標。
在CIFAR-100數據集上,SFL BigGAN相比基線BigGAN在各項指標上都有顯著提升。