本文提出了一種名為忠實圖注意力解釋 (FGAI) 的新方法,旨在解決基於注意力的圖神經網路 (GNN) 解釋性不穩定問題,並通過增強穩定性、保持解釋性和預測性能,提高圖注意力網路的可靠性和可信度。
現有的圖神經網路 (GNN) 解釋方法容易受到對抗性擾動的影響,即使是很小的、不影響模型預測的圖結構擾動,也可能導致解釋結果發生顯著變化,這引發了人們對其可靠性和實用性的擔憂。
本文提出了一種新穎的框架 LLM-GCE,利用大型語言模型 (LLM) 的推理能力和領域知識來生成更真實、更易於理解的圖反事實解釋,以提高圖神經網路 (GNN) 在分子特性預測方面的透明度和可靠性。
本文提出了一種名為 TAGExplainer 的新方法,該方法可以為文本屬性圖學習模型生成自然語言解釋,從而提高模型的可解釋性和人類對其決策過程的理解。