LoRA-SP는 대규모 언어 모델의 미세 조정 시 계산 및 메모리 요구사항을 크게 줄이면서도 성능을 유지할 수 있는 효율적인 기법이다.
LLMem은 다중 GPU에서 분산 미세 조정 방법을 적용할 때의 GPU 메모리 사용량을 정확하게 추정할 수 있다.