Khái niệm cốt lõi
DA-MoE는 그래프의 크기에 따라 최적의 GNN 레이어 깊이가 다른 '깊이 민감도' 문제를 해결하기 위해 다양한 깊이의 GNN을 전문가로 활용하고, 그래프 구조 정보를 활용하는 게이팅 네트워크를 통해 성능을 향상시킨 새로운 MoE 프레임워크입니다.
Tóm tắt
DA-MoE: 전문가 혼합을 통한 그래프 레벨 분석에서 깊이 민감도 해결
본 연구는 그래프 신경망(GNN)에서 단일 데이터셋 내 그래프 크기의 다양성으로 인해 발생하는 '깊이 민감도' 문제를 해결하는 것을 목표로 합니다.
본 논문에서는 깊이 적응형 전문가 혼합(DA-MoE) 모델을 제안합니다.
DA-MoE의 주요 특징
MoE on GNN Layer: 서로 다른 깊이의 GNN을 전문가로 활용하여 그래프 크기에 따라 최적의 GNN 레이어를 자동으로 선택합니다. 각 전문가는 독립적인 GNN 모델이며, 게이팅 네트워크를 통해 각 전문가의 점수를 매겨 최종 임베딩에 기여할 전문가를 선택합니다.
Structure-Based Gating Network: 기존 선형 투영 방식 대신 GNN을 게이팅 네트워크로 사용하여 그래프의 구조 정보를 반영합니다. 이를 통해 노드 간의 관계 및 패턴을 효과적으로 포착하여 전문가 선택의 정확도를 높입니다.
Balanced Loss Function: 특정 전문가에 편향되는 현상을 방지하기 위해 두 가지 균형 손실 함수를 도입했습니다. 첫 번째는 전문가 점수의 균등 분포를 유도하고, 두 번째는 각 전문가의 선택 확률을 동일하게 유지하도록 돕습니다.