핵심 개념
그래프 구조로 인해 노드 임베딩과 라벨이 비독립적인 경우, 기존 손실 함수의 일관성 문제를 해결하기 위해 준-와세르슈타인 손실 함수를 제안한다. 이를 통해 노드 라벨 정보를 효과적으로 활용하여 그래프 신경망의 성능을 향상시킬 수 있다.
초록
이 연구에서는 그래프 신경망(GNN) 학습 시 발생하는 일관성 문제를 해결하기 위해 준-와세르슈타인(Quasi-Wasserstein) 손실 함수를 제안한다.
기존 방법들은 각 노드의 라벨과 추정치 간 독립적인 손실 함수를 사용하지만, 그래프 구조로 인해 노드 임베딩과 라벨이 비독립적인 경우가 많다. 이러한 불일치로 인해 최적의 GNN을 학습하기 어렵다.
이를 해결하기 위해 준-와세르슈타인 손실 함수를 제안한다. 관측된 노드 라벨과 추정치 간 최적 전송 문제를 정의하고, 이를 그래프 상에서 해결한다. 이를 통해 노드 라벨 정보를 효과적으로 활용할 수 있다.
제안 방법은 다음과 같은 특징을 가진다:
이론적으로 타당한 손실 함수: 그래프 상에서 정의된 부분 와세르슈타인 거리를 활용하여 노드 라벨 간 의존성을 고려한다.
새로운 학습 및 예측 패러다임: 최적 라벨 전송을 학습하고, 이를 예측에 활용하는 새로운 접근법을 제시한다.
실험 결과, 제안 방법은 다양한 GNN 모델에 적용되어 성능 향상을 보였다. 특히 동질적 및 이질적 그래프 모두에서 우수한 성능을 보였다.
통계
그래프의 노드 수는 2,277개에서 19,717개 사이이며, 특징 차원은 500에서 3,703 사이이다.
그래프의 간선 수는 279개에서 245,861개 사이이며, 동질적 그래프의 내부 간선 비율은 73.6%에서 82.7% 사이, 이질적 그래프의 내부 간선 비율은 6.1%에서 23.0% 사이이다.
각 그래프의 클래스 수는 3개에서 10개 사이이다.