Concepts de base
그래프 구조 정보를 명시적으로 사용하지 않고도 다층 퍼셉트론이 그래프 구조 정보를 효과적으로 모델링할 수 있는 방법을 제안한다.
Résumé
이 논문은 그래프 신경망(GNN)의 한계를 극복하기 위해 다층 퍼셉트론(MLP) 기반의 새로운 프레임워크인 그래프 구조 자기 대조(GSSC)를 제안한다.
GSSC는 두 가지 주요 네트워크로 구성된다:
- 구조 희소화(STR-Sparse) 네트워크: 입력 그래프에서 잠재적으로 정보가 없거나 노이즈가 있는 엣지를 제거하여 희소화된 부그래프를 생성한다.
- 구조 자기 대조(STR-Contrast) 네트워크: 희소화된 부그래프를 입력으로 받아 순수 MLP 아키텍처를 통해 노드 표현을 학습한다. 구조 정보는 명시적으로 전파되지 않고 대신 손실 함수 계산에 암묵적으로 사용된다.
GSSC는 구조 희소화와 자기 대조를 하나의 통합된 프레임워크에서 양방향 최적화 문제로 정식화한다. 특히, 구조 희소화 네트워크는 동형성 기반 목적 함수를 통해 최적화된다.
실험 결과, GSSC는 다양한 노드 분류 및 그래프 분류 벤치마크에서 기존 GNN 및 MLP 기반 모델을 크게 능가하며, 특히 노이즈가 있는 환경에서 강건한 성능을 보인다.
Stats
노이즈가 60% 비대칭인 경우, GSSC는 Cora와 Citeseer 데이터셋에서 각각 DAGNN 대비 4.55%, 7.19% 더 높은 성능을 보였다.
구조 교란이 30%인 경우, GSSC는 Cora와 Citeseer 데이터셋에서 각각 NeuralSparse 대비 1.55%, 3.06% 더 높은 성능을 보였다.
Citations
"그래프 구조 정보는 다양한 그래프 학습 알고리즘에서 매우 중요한 역할을 한다."
"메시지 전파는 그래프 구조 정보를 모델링하는 유일한 방법이 아니다."