본 연구는 LlaMA-2 모델의 효율적인 파인튜닝을 위해 ALoRA 기법을 제안한다. ALoRA는 각 Transformer 모듈의 중요도를 고려하여 동적으로 LoRA 랭크를 할당하여 성능을 향상시킨다.