Core Concepts
유방 X선 검사 영상의 병변 검출을 위해 두 관점의 정보를 특징 수준에서 융합하는 새로운 모델 MAMM-Net을 제안한다.
Abstract
이 논문은 유방 X선 검사 영상에서 악성 병변을 자동으로 검출하는 새로운 모델 MAMM-Net을 제안한다. 유방 X선 검사는 두 가지 각도에서 영상을 획득하며, 방사선과 전문의는 이 두 관점의 정보를 동시에 활용하여 병변을 진단한다. 그러나 기존의 자동 검출 모델들은 이러한 정보 융합에 어려움을 겪었다.
MAMM-Net은 두 관점의 영상을 동시에 처리하며, 객체 수준뿐만 아니라 특징 수준에서도 정보를 융합한다. 이를 위해 MAMM-Net에는 변형 가능한 주의 집중 메커니즘을 기반으로 한 융합 레이어가 포함되어 있다. 실험 결과, MAMM-Net은 공개 데이터셋 DDSM에서 기존 최신 모델들을 능가하는 성능을 보였다. 또한 픽셀 단위 병변 주석과 악성도 분류 기능을 새롭게 제공한다.
Stats
유방암은 여성 암 사망의 주요 원인 중 하나이며, 전체 여성 암 진단 사례의 약 12%를 차지한다.
Quotes
"유방 X선 검사는 유방암 진단을 위해 가장 널리 사용되는 방법이다."
"기존 신경망 모델들은 두 관점의 정보를 충분히 활용하지 못하여 성능이 제한적이었다."