Core Concepts
MR-Transformer는 ImageNet 사전 학습과 3차원 공간 상관관계 포착을 통해 자기공명영상으로 전체 무릎 치환술을 예측하는 트랜스포머 기반 딥러닝 모델이다.
Abstract
이 연구에서는 전체 무릎 치환술 예측을 위한 트랜스포머 기반 딥러닝 모델인 MR-Transformer를 개발했다. MR-Transformer는 ImageNet 사전 학습된 비전 트랜스포머 DeiT-Ti를 기반으로 하며, 3차원 자기공명영상을 직접 입력으로 사용한다.
Osteoarthritis Initiative (OAI) 데이터베이스에서 353쌍의 케이스-대조군 데이터와 Multicenter Osteoarthritis Study (MOST) 데이터베이스에서 270쌍의 케이스-대조군 데이터를 사용했다. MR-Transformer는 기존 딥러닝 모델들과 비교했을 때 우수한 성능을 보였다:
OAI 데이터베이스의 관상면 중간강조 스핀에코 영상에서 AUC 0.89, 시상면 중간강조 지방억제 스핀에코 영상에서 AUC 0.91
MOST 데이터베이스의 관상면 단축 반전회복 영상에서 AUC 0.82, 시상면 양성자밀도 지방억제 영상에서 AUC 0.82
특히 MOST 데이터베이스의 관상면 단축 반전회복 영상에서 MR-Transformer는 다른 딥러닝 모델들(TSE, 3DMeT, MRNet)보다 유의미하게 높은 AUC 성능(0.82)을 보였다.
이를 통해 MR-Transformer가 자기공명영상을 이용한 전체 무릎 치환술 예측에서 최신 기술 수준의 성능을 달성했음을 확인할 수 있다.
Stats
관상면 중간강조 스핀에코 영상에서 MR-Transformer의 AUC는 0.89로, TSE 모델(0.86, P=.009)과 3DMeT 모델(0.82, P=.004)보다 유의미하게 높았다.
시상면 중간강조 지방억제 스핀에코 영상에서 MR-Transformer의 AUC는 0.91로, TSE 모델(0.82, P<.001)과 3DMeT 모델(0.78, P<.001)보다 유의미하게 높았다.
관상면 단축 반전회복 영상에서 MR-Transformer의 AUC는 0.82로, TSE 모델(0.76, P<.001), 3DMeT 모델(0.74, P=.005), MRNet 모델(0.78, P=.010)보다 유의미하게 높았다.
시상면 양성자밀도 지방억제 영상에서 MR-Transformer의 AUC는 0.82로, TSE 모델(0.75, P=.006)과 3DMeT 모델(0.63, P<.001)보다 유의미하게 높았다.
Quotes
"MR-Transformer는 ImageNet 사전 학습과 3차원 공간 상관관계 포착을 통해 자기공명영상으로 전체 무릎 치환술을 예측하는 트랜스포머 기반 딥러닝 모델이다."
"MR-Transformer는 기존 딥러닝 모델들과 비교했을 때 우수한 성능을 보였다."