LoRA(Low Rank Adaptation)를 통해 대규모 언어 모델을 10개의 기반 모델과 31개의 작업에 걸쳐 310개 모델로 미세 조정하여, 4비트 LoRA 미세 조정 모델이 기반 모델보다 34점, GPT-4보다 10점 높은 성능을 달성했다.