Belangrijkste concepten
본 논문에서는 그래프 증강 기법이 그래프의 핵심 의미 정보를 유지하면서도 그래프 표현 학습에 필요한 변형을 주입해야 한다는 점을 강조하며, 설명 가능한 인공지능(XAI) 기법을 활용하여 의미 정보를 보존하는 그래프 증강 기법인 EPA(Explanation-Preserving Augmentation)를 제안합니다.
서론
본 논문은 그래프 표현 학습(GRL)에서 그래프 증강 기법의 중요성을 다루며, 특히 의미 정보 보존의 필요성을 강조합니다. 기존 그래프 증강 기법들은 그래프 구조를 변경할 때 핵심 의미 정보 손실을 간과하는 경향이 있었습니다. 이를 해결하기 위해 본 논문에서는 설명 가능한 인공지능(XAI) 기법을 활용하여 의미 정보를 보존하는 그래프 증강 기법인 EPA(Explanation-Preserving Augmentation)를 제안합니다. EPA는 소량의 라벨 데이터를 사용하여 그래프 설명자를 사전 학습시키고, 이를 통해 그래프의 핵심 의미 정보를 유지하면서도 변형을 주입하여 그래프 표현 학습 성능을 향상시킵니다.
그래프 설명자 사전 학습
EPA는 먼저 소량의 라벨 데이터를 사용하여 그래프 설명자를 사전 학습시킵니다. 그래프 설명자는 그래프 신경망(GNN)을 사용하여 그래프 분류 작업을 수행하고, 이때 그래프 정보 병목(GIB) 원리를 사용하여 분류에 가장 중요한 하위 구조를 식별합니다. 즉, 그래프의 의미 정보를 가장 잘 나타내는 하위 그래프를 추출하는 것입니다.
설명력을 유지하는 증강 기법
EPA는 사전 학습된 그래프 설명자를 사용하여 그래프의 핵심 의미 정보를 유지하면서도 다양한 증강 기법을 적용합니다.
노드 삭제: 그래프의 주변 하위 그래프에서 무작위로 노드를 삭제합니다.
엣지 삭제: 그래프의 주변 하위 그래프에서 무작위로 엣지를 삭제합니다.
속성 마스킹: 그래프의 주변 하위 그래프에서 무작위로 노드 또는 엣지 속성을 숨깁니다.
하위 그래프: 그래프의 주변 하위 그래프에서 무작위 Begehung을 사용하여 하위 그래프를 샘플링합니다.
믹스업: 그래프의 주변 하위 그래프를 다른 그래프의 주변 하위 그래프와 결합합니다.
그래프 표현 학습
EPA는 증강된 그래프를 사용하여 그래프 표현 학습을 수행합니다. 본 논문에서는 GraphCL 및 SimSiam이라는 두 가지 대조 학습 프레임워크를 사용하여 EPA의 성능을 평가합니다.
실험 결과
본 논문에서는 6개의 벤치마크 데이터 세트를 사용하여 EPA의 성능을 평가합니다. 실험 결과, EPA는 기존 그래프 증강 기법들보다 우수한 성능을 보였으며, 특히 라벨 데이터가 제한적인 경우 더욱 효과적임을 확인했습니다.
결론
본 논문에서 제안한 EPA는 그래프의 핵심 의미 정보를 유지하면서도 다양한 증강 기법을 적용하여 그래프 표현 학습 성능을 향상시키는 효과적인 방법입니다. 특히, 소량의 라벨 데이터만 사용하여 그래프 설명자를 사전 학습시키기 때문에 라벨 데이터가 부족한 상황에서도 효과적으로 적용될 수 있습니다.
Statistieken
본 논문에서는 MUTAG, Benzene, Alkane-Carbonyl, Fluoride-Carbonyl, D&D, PROTEINS 등 6개의 벤치마크 데이터 세트를 사용하여 실험을 진행했습니다.
각 데이터 세트는 80%/10%/10% 비율로 학습/검증/테스트 세트로 나누어 사용했습니다.
SVM 학습에는 학습 세트에서 무작위로 50개의 그래프를 샘플링하여 사용했습니다.
준지도 학습 기반 GRL 방법(EPA-GRL 포함)의 경우, GNN 학습에 50개의 라벨 데이터와 나머지 라벨링 되지 않은 데이터를 모두 사용했습니다.
비지도 학습 기반 GRL 방법의 경우, GNN 학습에 모든 데이터를 라벨 없이 사용했습니다.
모든 GRL 방법의 백본 GNN으로 3층 GCN을 사용했습니다.
모든 방법에서 GNN은 Adam optimizer를 사용하여 학습되었으며, 학습률은 1 × 10−3으로 설정했습니다.
EPA-GRL의 경우, 설명자 학습에 가중치 감쇠 5 × 10−4를 사용했으며, 식 (3)의 𝜏 값은 0.2로 설정했습니다.
노드 삭제 증강 기법은 10%의 노드를 삭제했습니다.
엣지 삭제 증강 기법은 10%의 엣지를 삭제했습니다.
속성 마스킹 증강 기법은 10%의 특징을 마스킹했습니다.
하위 그래프 샘플링 증강 기법은 그래프에서 절반의 노드를 시작 노드로 선택하고 각 노드에서 10단계의 무작위 Begehung을 수행했습니다.
믹스업 증강 기법은 동일한 배치에서 무작위로 선택한 그래프의 20%를 잘라내어 증강 그래프를 생성했습니다.