แนวคิดหลัก
ZePT는 쿼리 분리와 자기 프롬프팅을 통해 훈련 데이터에 없는 종양 카테고리도 효과적으로 분할할 수 있다.
บทคัดย่อ
이 논문은 제로샷 범종양 분할 프레임워크인 ZePT를 제안한다. ZePT는 기본 쿼리와 고급 쿼리로 쿼리를 분리하고, 두 단계의 학습 과정을 거친다.
1단계에서는 장기 분할을 위한 기본 쿼리를 학습한다. 객체 인식 특징 그룹화 전략을 통해 장기 수준의 시각적 특징을 모은다.
2단계에서는 자기 생성 시각 프롬프트를 활용해 고급 쿼리를 학습한다. 기본 쿼리와 시각 특징의 유사도를 통해 비정상 영역을 탐지하고, 이를 바탕으로 고급 쿼리가 보이지 않는 종양을 분할할 수 있도록 한다.
또한 쿼리와 의료 지식 간 특징 수준 정렬을 통해 모델의 일반화 능력을 높였다.
실험 결과, ZePT는 기존 방법들에 비해 보이지 않는 종양 분할 성능이 크게 향상되었다. 또한 기존에 보이던 장기와 종양 분할 성능도 개선되었다.
สถิติ
보이지 않는 간 종양의 AUROC가 86.81%이고, DSC가 37.67%이다.
보이지 않는 폐 종양의 AUROC가 77.84%이고, DSC가 27.22%이다.
보이지 않는 췌장 종양의 AUROC가 91.57%이고, DSC가 52.94%이다.
보이지 않는 대장 종양의 AUROC가 84.35%이고, DSC가 36.23%이다.
คำพูด
"The long-tailed distribution problem in medical image analysis reflects a high prevalence of common conditions and a low prevalence of rare ones, which poses a significant challenge in developing a unified model capable of identifying rare or novel tumor categories not encountered during training."
"ZePT disentangles the object queries into two subsets and trains them in two stages. Initially, it learns a set of fundamental queries for organ segmentation through an object-aware feature grouping strategy, which gathers organ-level visual features."
"Subsequently, it refines the other set of advanced queries that focus on the auto-generated visual prompts for unseen tumor segmentation."