核心概念
제안된 FFGT 모델은 그래프 전체에 걸친 전역 주의와 국소 에고넷에 초점을 맞춘 주의를 결합하여, 그래프 데이터의 전역적 상관관계와 국소 하위구조 정보를 모두 효과적으로 학습할 수 있다.
摘要
이 논문은 그래프 데이터 분석을 위한 새로운 모델 아키텍처인 Focal and Full-Range Graph Transformer (FFGT)를 제안한다. FFGT는 그래프 전체에 걸친 전역 주의 메커니즘과 국소 에고넷에 초점을 맞춘 주의 메커니즘을 결합한다.
전역 주의 메커니즘은 그래프 전체의 상관관계를 학습하고, 국소 주의 메커니즘은 각 노드의 국소 하위구조 정보를 추출한다. 이 두 메커니즘의 결합을 통해 FFGT는 그래프의 전역적 특성과 국소적 특성을 모두 효과적으로 학습할 수 있다.
실험 결과, FFGT는 기존의 그래프 트랜스포머 모델들에 비해 다양한 그래프 데이터셋에서 우수한 성능을 보였다. 특히 Long Range Graph Benchmark 데이터셋에서 단순한 백본 모델에 FFGT를 적용했음에도 최신 기술 수준의 성능을 달성했다. 또한 합성 데이터셋 실험을 통해 FFGT가 그래프의 국소 하위구조 특성을 효과적으로 학습할 수 있음을 확인했다.
统计
그래프 데이터셋 ZINC의 평균 절대 오차(MAE)는 Vanilla 모델 0.156에서 Vanilla-FFGT 0.140으로 개선되었다.
Ogbg-Molpcba 데이터셋의 평균 정밀도(AP)는 GRPE 0.2856에서 GRPE-FFGT 0.2902로 향상되었다.
Peptide-Functional 데이터셋의 AP는 GRPE 0.6836에서 GRPE-FFGT 0.6956으로 증가했다.
Peptide-Structural 데이터셋의 MAE는 GRPE 0.2436에서 GRPE-FFGT 0.2416으로 감소했다.
引用
"제안된 FFGT 모델은 그래프 전체에 걸친 전역 주의와 국소 에고넷에 초점을 맞춘 주의를 결합하여, 그래프 데이터의 전역적 상관관계와 국소 하위구조 정보를 모두 효과적으로 학습할 수 있다."
"FFGT는 기존의 그래프 트랜스포머 모델들에 비해 다양한 그래프 데이터셋에서 우수한 성능을 보였다."
"FFGT가 그래프의 국소 하위구조 특성을 효과적으로 학습할 수 있음을 확인했다."