이 연구에서는 그래프 신경망(GNN) 학습 시 발생하는 일관성 문제를 해결하기 위해 준-와세르슈타인(Quasi-Wasserstein) 손실 함수를 제안한다.
기존 방법들은 각 노드의 라벨과 추정치 간 독립적인 손실 함수를 사용하지만, 그래프 구조로 인해 노드 임베딩과 라벨이 비독립적인 경우가 많다. 이러한 불일치로 인해 최적의 GNN을 학습하기 어렵다.
이를 해결하기 위해 준-와세르슈타인 손실 함수를 제안한다. 관측된 노드 라벨과 추정치 간 최적 전송 문제를 정의하고, 이를 그래프 상에서 해결한다. 이를 통해 노드 라벨 정보를 효과적으로 활용할 수 있다.
제안 방법은 다음과 같은 특징을 가진다:
실험 결과, 제안 방법은 다양한 GNN 모델에 적용되어 성능 향상을 보였다. 특히 동질적 및 이질적 그래프 모두에서 우수한 성능을 보였다.
翻译成其他语言
从原文生成
arxiv.org
更深入的查询