Kernkonzepte
자연어 처리에서 Pretrain-Finetune 패러다임의 중요성과 적용 방법 소개
Statistiken
Pretrain-Finetune 패러다임은 자연어 처리 분야를 혁신적으로 변화시켰다.
RoBERTa-base 모델을 2,915개의 레이블이 지정된 샘플로 finetuning하면 다른 모델보다 우수한 성능을 보인다.
ConfliBERT 모델을 finetuning하면 dictionary-based 모델보다 낮은 MSE와 높은 R2 값을 달성할 수 있다.
Zitate
"The pretrain-finetune paradigm has revolutionized the field of natural language processing." - Brown et al. (2020)
"Finetuning the RoBERTa model with 2,915 New Zealand parliamentary speeches substantially outperforms the cross-domain topic classifier." - Osnabr¨ugge et al. (2021)