本論文は、大規模言語モデル(LLM)の圧縮に関する新しい手法「Multilingual Brain Surgeon (MBS)」を提案している。従来の圧縮手法は英語のみの校正データを使用していたため、低資源言語の性能が大きく低下していた。
MBSでは、モデルの訓練データの言語分布に応じて校正データをサンプリングする。これにより、低資源言語の性能低下を最小限に抑えつつ、全体の圧縮性能を向上させることができる。
具体的な実験では、BLOOM多言語LLMモデルを用いて評価を行った。結果、MBSを適用することで、既存の圧縮手法(GPTQ、SparseGPT、Wanda)の性能が向上し、特に低資源言語の性能が大幅に改善された。
さらに、言語の訓練データ比率と言語の類似性が圧縮結果に大きな影響を与えることを明らかにした。訓練データ比率が大きい言語ほど、圧縮の影響を受けにくく、校正言語に類似した言語ほど、圧縮後の性能低下が小さいことが分かった。
本研究は、多言語LLMの実用性を高める革新的なアプローチであり、言語カバレッジを維持しつつ、より包括的で強力なマルチリンガルNLPアプリケーションの実現に貢献する。
다른 언어로
소스 콘텐츠 기반
arxiv.org
더 깊은 질문