本記事では、LLMのトレーニングにおけるメモリ効率化手法「Q-GaLore」について説明している。
GaLoreは、勾配を低ランク部分空間に射影することでメモリ使用量を削減する手法であり、32 GB GPUでも7B規模のLLMのファインチューニングやプリトレーニングが可能になった。
Q-GaLoreは、GaLoreにQuantizationを導入したバリアントである。具体的には、勾配の射影をINT4データ型で行い、モデルの重みもINT8に量子化している。
これらの量子化により、16 GB GPUでも7B規模のLLMのファインチューニングやプリトレーニングが可能になった。
다른 언어로
소스 콘텐츠 기반
medium.com
핵심 통찰 요약
by Benjamin Mar... 게시일 medium.com 07-21-2024
https://medium.com/@bnjmn_marie/q-galore-train-llms-from-scratch-with-a-16-gb-gpu-7f2a827cfd87더 깊은 질문