ReFT 방법은 모델 가중치 업데이트 대신 은닉 표현 조작을 통해 모델 성능을 향상시킬 수 있으며, 이는 기존 PEFT 방법보다 더 효율적이고 효과적일 수 있다.
본 연구는 LlaMA-2 모델의 효율적인 파인튜닝을 위해 ALoRA 기법을 제안한다. ALoRA는 각 Transformer 모듈의 중요도를 고려하여 동적으로 LoRA 랭크를 할당하여 성능을 향상시킨다.
데이터 품질 향상을 통해 언어 모델의 성능을 개선할 수 있다.