本研究論文探討了可微分結構學習中的重要挑戰,特別是在線性高斯情況下懲罰似然方法的局限性。
貝氏網路等機率圖模型是簡潔地捕捉複雜機率關係的強大工具。傳統上,學習這些結構涉及離散方法,例如基於約束的方法和基於評分的方法。近年來,可微分結構學習方法將學習有向無環圖 (DAG) 的組合問題轉化為連續優化問題,為應用基於梯度的優化技術打開了大門。然而,最近的研究表明,可微分結構學習方法存在非凸性問題,特別是在線性高斯設定中,其中真實結構可以通過馬可夫等價類別來識別。
本研究進一步探討了另一個關鍵問題:ℓ1 懲罰似然的不一致性,即使可以找到優化問題的全局最優解。ℓ1 懲罰雖然鼓勵較小的邊緣權重,但並不能保證結果結構的真實稀疏性。最小化 ℓ1 範數可能會導致比最小化 ℓ0 範數更密集的結構,因為 ℓ1 傾向於具有較小絕對值的邊緣,即使它們代表的是虛假邊緣。
為了克服這些限制,本文提出了一種稱為 CALM(具有估計道德圖的連續和無環約束 ℓ0 懲罰似然)的可微分結構學習方法。CALM 使用 ℓ0 懲罰來規範似然,並通過 Gumbel Softmax 等技術進行近似,以在學習的鄰接矩陣中強制執行稀疏性。此外,CALM 還結合了學習的道德圖來限制道德圖內邊緣的優化,從而減少搜索空間。
實驗結果表明,CALM 在各種圖形類型和樣本大小上始終優於 GOLEM-NV-ℓ1 和 NOTEARS。在 ER1 等稀疏圖中,CALM 的性能與樣本量較小時的 PC 相當,而在 ER4 等密集圖中,它在所有基準方法中均取得了最佳結果。CALM 在數據標準化前後也保持穩健的性能。
本研究證明了 ℓ1 懲罰似然在線性高斯情況下可微分結構學習中的不一致性,並提出了一種基於 ℓ0 懲罰、硬性無環約束和道德圖估計的混合可微分結構學習方法 CALM 來解決這個問題。實驗結果表明,CALM 在各種設定下均優於現有方法,為可微分結構學習提供了更可靠的途徑,特別是對於學習馬可夫等價類別。
未來的研究方向包括將 CALM 擴展到非線性模型,並整合先進的優化技術以進一步改進線性模型。
翻譯成其他語言
從原文內容
arxiv.org
深入探究