Core Concepts
대규모 언어 모델의 법적 추론 성능을 향상시키기 위해 법적 도메인 데이터로 사전 학습하고 법적 지침 데이터로 미세 조정하는 것이 효과적이다.
Abstract
이 연구는 법적 추론 능력을 향상시키기 위해 대규모 언어 모델의 성능을 실증적으로 검토했다. 주요 내용은 다음과 같다:
17개 관할권, 24개 언어, 총 1,200만 개의 예제로 구성된 법적 지침 데이터셋 'LawInstruct'를 구축했다.
LawInstruct로 Flan-T5 모델을 미세 조정하여 LegalBench 벤치마크에서 기존 대비 16% 향상된 성능을 달성했다.
모델 크기, 학습 방식, 데이터 구성 등 다양한 요인에 따른 성능 변화를 분석했다.
법적 추론 과제 중 결론 도출과 해석 관련 과제에서는 상대적으로 낮은 성능 향상을 보였다.
법적 도메인 사전 학습과 지침 미세 조정의 효과가 일관적이지 않아, 이에 대한 추가 연구가 필요하다.
Stats
법적 추론 과제에서 Flan-T5 XL 모델의 성능이 기존 대비 16% 향상되었다.
Flan-T5 Small 모델의 성능은 기존 대비 38.1% 향상되었고, 사전 학습까지 추가하면 55.4% 향상되었다.
Quotes
"법적 추론 과제 중 결론 도출과 해석 관련 과제에서는 상대적으로 낮은 성능 향상을 보였다."
"법적 도메인 사전 학습과 지침 미세 조정의 효과가 일관적이지 않아, 이에 대한 추가 연구가 필요하다."