本論文では、GPLVMにおけるモデル崩壊の2つの主要な原因を明らかにしている。
投影分散の選択が適切でない場合、潜在変数の表現が曖昧になったり均一化されたりするモデル崩壊が起こる。理論的な分析と実験的な検証により、投影分散を学習することの重要性を示している。
カーネル関数の柔軟性が不足している場合、潜在変数の表現が歪められ、データの本質的な構造を捉えられないモデル崩壊が起こる。柔軟なスペクトル混合(SM)カーネルを用いることで、この問題に対処できることを示している。
提案手法の advised RFLVM は、SM カーネルと微分可能なランダムフーリエ特徴量を組み合わせることで、計算効率と柔軟性を両立している。また、投影分散の学習も行うことで、モデル崩壊を効果的に防ぐことができる。
様々なデータセットで評価した結果、advised RFLVMは既存のGPLVM手法や最新のVAE手法に比べて、より情報量の高い潜在表現を学習できることが示された。また、欠損データの補完タスクでも優れた性能を発揮した。
To Another Language
from source content
arxiv.org
Key Insights Distilled From
by Ying Li,Zhid... at arxiv.org 04-03-2024
https://arxiv.org/pdf/2404.01697.pdfDeeper Inquiries