Core Concepts
주의력 집중이 과도하게 특정 인스턴스에 집중되는 문제를 해결하기 위해 다중 분기 주의력과 확률적 Top-K 인스턴스 마스킹 기법을 제안하여 과적합을 완화한다.
Abstract
이 논문은 전체 슬라이드 이미지(WSI) 분류에서 다중 인스턴스 학습(MIL) 방법의 과적합 문제를 해결하기 위해 Attention-Challenging MIL(ACMIL)을 제안한다.
ACMIL은 두 가지 기술을 결합한다:
다중 분기 주의력(Multiple Branch Attention, MBA): UMAP 분석을 통해 판별적 인스턴스들 간에 다양한 패턴이 존재함을 발견하였다. 기존 주의력 메커니즘은 이 중 일부만 포착하는 반면, MBA는 다중 분기를 통해 더 많은 판별적 인스턴스를 포착한다.
확률적 Top-K 인스턴스 마스킹(Stochastic Top-K Instance Masking, STKIM): 상위 K개 주의력 점수가 대부분의 주의력을 차지하는 문제를 해결하기 위해, STKIM은 Top-K 인스턴스를 확률적으로 마스킹하여 나머지 인스턴스에 주의력을 할당한다.
실험 결과, ACMIL은 3개의 WSI 데이터셋과 2개의 사전 학습 모델에서 기존 최신 방법들을 뛰어넘는 성능을 보였다. 또한 히트맵 시각화와 UMAP 시각화를 통해 ACMIL이 주의력 집중을 효과적으로 억제하고 과적합을 극복할 수 있음을 입증하였다.
Stats
상위 10개 주의력 점수가 CAMELYON16 데이터셋에서 87%, LBC 데이터셋에서 85%, BRACS 데이터셋에서 86%를 차지한다.
ACMIL은 ABMIL 대비 CAMELYON16에서 F1-score 4.1%, AUC 1.8% 향상, BRACS에서 F1-score 9.9%, AUC 2.2% 향상, LBC에서 F1-score 9.7%, AUC 7.0% 향상을 보였다.
Quotes
"MIL의 주의력 메커니즘은 종종 판별적 인스턴스의 부분집합에 집중되며, 이는 과적합과 밀접하게 연관되어 있다."
"상위 K개 주의력 점수의 누적 값 검토 결과, 극소수의 인스턴스가 대부분의 주의력을 차지하고 있다."