핵심 개념
대규모 언어 모델을 미세 조정하여 임상 질병 진단 및 환자 재입원 예측 모델을 개발하였으며, 기존 모델들을 능가하는 성능을 보였다.
초록
이 연구에서는 대규모 언어 모델(LLM)을 활용하여 임상 질병 진단 및 환자 재입원 예측 모델을 개발하는 CPLLM 방법을 제안하였다.
- 두 개의 LLM (Llama2, BioMedLM)을 사용하여 미세 조정을 수행하였으며, 프롬프트 기반 학습을 통해 의료 개념 간 관계를 학습하도록 하였다.
- 질병 예측 과제에서 CPLLM은 기존 모델들 (Logistic Regression, RETAIN, Med-BERT)을 능가하는 성능을 보였다. 특히 PR-AUC 지표에서 3.31%~7.59%의 성능 향상을 보였다.
- 환자 재입원 예측 과제에서도 CPLLM이 기존 모델들을 능가하는 성능을 보였다.
- CPLLM은 추가적인 의료 데이터 사전 학습 없이도 우수한 성능을 달성할 수 있었으며, 기존 모델들보다 긴 입력 시퀀스를 처리할 수 있다는 장점이 있다.
통계
성인 호흡 부전 예측 과제에서 CPLLM-Llama2의 PR-AUC는 35.962%로, 가장 우수한 기존 모델인 Logistic Regression의 35.05%보다 0.912% 높았다.
만성 신장 질환 예측 과제에서 CPLLM-Llama2의 PR-AUC는 33.992%로, Med-BERT의 33.37%보다 0.622% 높았다.
급성 및 비특정 신부전 예측 과제에서 CPLLM-Llama2의 PR-AUC는 45.442%로, 가장 우수한 기존 모델인 RETAIN의 43.603%보다 1.839% 높았다.
MIMIC-IV 데이터셋의 환자 재입원 예측 과제에서 CPLLM-Llama2의 PR-AUC는 68.986%로, 두 번째로 우수한 ConCare 모델의 67.523%보다 1.463% 높았다.
eICU-CRD 데이터셋의 환자 재입원 예측 과제에서 CPLLM-Llama2의 PR-AUC는 94.115%로, 가장 우수한 기존 모델인 deeper의 93.814%보다 0.301% 높았다.
인용구
"우리가 제안한 CPLLM 방법은 모든 4가지 과제(3가지 질병 예측, 1가지 재입원 예측)에서 기존 모델들을 능가하는 성능을 보였습니다."
"CPLLM은 추가적인 의료 데이터 사전 학습 없이도 우수한 성능을 달성할 수 있었으며, 기존 모델들보다 긴 입력 시퀀스를 처리할 수 있다는 장점이 있습니다."