Grunnleggende konsepter
LEME는 방대한 안과 데이터로 학습된 오픈 소스 안과 전문 LLM으로, 다양한 평가에서 기존 LLM보다 뛰어난 성능을 보여 안과 진료 개선에 큰 가능성을 제시한다.
Sammendrag
눈을 위한 언어 향상 모델(LEME): 오픈 소스 안과 전문 대규모 언어 모델
본 연구는 방대한 안과 데이터를 기반으로 학습된 오픈 소스 안과 전문 대규모 언어 모델(LLM)인 LEME(Language Enhanced Model for Eye)를 개발하고, 그 성능을 기존 LLM과 비교 분석하는 것을 목표로 한다.
데이터 수집 및 처리
LEME 개발을 위해 PubMed Central-Patients에서 안과 질환 관련 4,688개의 환자 사례 보고서 전문을 수집하고, PubMed Central에서 14개 주요 안과 학술지의 103,473개 초록을 수집하였다. 또한, 의대생, 레지던트, 전문의 등이 공개한 안과 관련 질문 27,553개를 수집하였다.
LLM 학습 및 평가
수집된 데이터를 사용하여 환자 사례 질의응답, 문헌 이해, 지식 질의응답 세 가지 범주에 걸쳐 19개 작업과 관련된 126,921개의 지침을 생성하였다. 이를 기반으로 Llama2 70B 프레임워크를 활용하여 LEME를 미세 조정하였다. LEME의 성능 평가는 GPT-3.5, GPT-4, Llama2(7B, 13B, 70B), PMC-LLAMA 13B, Meditron 70B, EYE-Llama 등 8개 LLM과 비교하여 내부 검증 및 외부 검증을 수행하였다. 내부 검증에는 초록 완성, 빈칸 채우기, 객관식 문제 풀이, 주관식 질의응답 등 4가지 작업을 포함하였으며, 외부 검증에는 장문 질의응답, 객관식 문제 풀이, 환자 EHR 요약, 임상 질의응답 등을 포함하였다.