이 논문은 의료 영상 분할을 위한 새로운 모델 CMAformer와 반지도 학습 프레임워크를 제안한다.
CMAformer는 ResUnet과 트랜스포머의 장점을 결합한 모델로, 공간 주의 집중과 채널 주의 집중을 효과적으로 통합하는 Cross Attention 레이어를 핵심 구성 요소로 사용한다. 이를 통해 다중 스케일의 특징을 효과적으로 융합할 수 있다.
또한 저자들은 라그랑주 쌍대성 일관성 손실 함수(LDC Loss)를 제안하여, 경계 인식 대비 손실 함수와 결합한 반지도 학습 프레임워크를 구축하였다. 이를 통해 레이블된 데이터가 부족한 의료 영상 분할 문제를 효과적으로 해결할 수 있다.
실험 결과, CMAformer는 다양한 의료 영상 분할 데이터셋에서 기존 최신 모델들을 능가하는 성능을 보였다. 특히 작은 병변 분할에서 두드러진 성과를 보였다. 이는 CMAformer와 제안된 반지도 학습 프레임워크의 우수성을 입증한다.
他の言語に翻訳
原文コンテンツから
arxiv.org
深掘り質問