Core Concepts
다양한 합성곱 신경망 모델을 이용하여 전립선 자기공명영상 데이터에서 악성 병변 유무를 신뢰성 있게 분류할 수 있다.
Abstract
이 연구에서는 전립선암 진단을 위해 다양한 합성곱 신경망 모델의 성능을 평가하였다. 캔톤 병원 아라우에서 제공한 개인 데이터셋을 사용하였으며, T2 강조, 확산 강조, 동적 대조 증강 영상 등 다중 매개변수 자기공명영상 데이터를 입력으로 사용하였다.
ResNet3D, ConvNet3D, ConvNeXt3D 모델을 평가하였으며, 전립선 영역을 사전 분할하여 입력으로 사용한 경우 AUC ROC 성능이 향상되었다. 가장 좋은 성능은 ResNet3D 모델로, AUC ROC 0.6214, 평균 정밀도 0.4583을 달성하였다. 그러나 전반적인 성능은 아직 만족스럽지 않은 수준이다.
데이터 불균형, 부정확한 레이블링, 과적합 등의 문제로 인해 모델의 일반화 성능이 제한적이었다. 향후 연구에서는 더 큰 데이터셋 활용, 전이 학습, 자기 지도 학습 등의 방법을 통해 성능 향상이 필요할 것으로 보인다. 또한 병변 위치 정보 등 추가 정보를 활용하거나 다른 기계학습 알고리즘을 시도해볼 필요가 있다.
Stats
전립선암 진단을 위한 자기공명영상 데이터셋은 총 365개의 사례와 1,095개의 영상 시퀀스로 구성되어 있다.
영상 크기는 149 x 149 x 32이며, voxel 간격은 0.75, 0.75, 3 mm이다.
악성 병변 레이블이 있는 영상은 119개, 양성 병변 또는 병변 없는 영상은 246개이다.
Quotes
"전립선암 진단을 위한 자기공명영상 데이터셋은 총 365개의 사례와 1,095개의 영상 시퀀스로 구성되어 있다."
"영상 크기는 149 x 149 x 32이며, voxel 간격은 0.75, 0.75, 3 mm이다."
"악성 병변 레이블이 있는 영상은 119개, 양성 병변 또는 병변 없는 영상은 246개이다."