Основні поняття
선형 주의 기반 언어 모델의 메모리 제한을 극복하고 장문 시퀀스를 효율적으로 학습할 수 있는 LASP 기법을 제안한다.
Анотація
이 논문은 선형 주의 기반 언어 모델의 메모리 제한을 해결하기 위한 LASP(Linear Attention Sequence Parallelism) 기법을 소개한다.
- 기존 순차 병렬화 기법은 선형 주의 특성을 활용하지 못해 병렬화 효율이 낮은 문제가 있다.
- LASP는 선형 주의의 right-product 커널 트릭을 활용한 효율적인 통신 메커니즘을 설계했다. 이를 통해 통신 오버헤드를 크게 줄였다.
- 또한 커널 융합과 중간 상태 캐싱 등의 최적화를 통해 GPU 클러스터에서 하드웨어 친화적인 구현이 가능하다.
- LASP는 다양한 배치 수준 데이터 병렬 방법과 호환되어 대규모 클러스터에서 장문 시퀀스와 대용량 배치 학습이 가능하다.
- 실험 결과, LASP는 기존 순차 병렬화 기법 대비 8배 더 긴 시퀀스 길이를 지원하며 훨씬 빠른 속도를 보였다.
Статистика
128대의 A100 80G GPU 클러스터에서 1B 모델의 경우 최대 4096K 길이의 시퀀스를 학습할 수 있다.
이는 기존 순차 병렬화 기법 대비 8배 더 긴 시퀀스 길이이다.
Цитати
"LASP는 선형 주의의 right-product 커널 트릭을 활용한 효율적인 통신 메커니즘을 설계했다."
"LASP는 커널 융합과 중간 상태 캐싱 등의 최적화를 통해 GPU 클러스터에서 하드웨어 친화적인 구현이 가능하다."
"LASP는 다양한 배치 수준 데이터 병렬 방법과 호환되어 대규모 클러스터에서 장문 시퀀스와 대용량 배치 학습이 가능하다."