核心概念
スマートフォンなどのデバイス上での利用を念頭に置いた、効率性と性能を両立させた小型言語モデルPhoneLMの紹介。
要約
PhoneLM: デバイス上での利用に最適化された小型言語モデル
本稿では、スマートフォンなどのデバイス上での利用に最適化された、効率性と性能を両立させた小型言語モデルPhoneLMが提案されています。PhoneLMは、従来のモデル設計とは異なり、事前学習前にデバイスのハードウェア特性を考慮したアーキテクチャ探索を行うという、シンプルながらも効果的な原則に基づいて開発されました。
近年、大規模言語モデル(LLM)の進歩は目覚ましいものがありますが、その一方で、数十億パラメータ以下の小型言語モデル(SLM)への関心も高まっています。SLMは、デバイス上での展開を容易にすることから、その実用化が進んでいます。しかし、従来のSLM設計では、デバイスのハードウェア特性がほとんど考慮されていませんでした。
PhoneLMは、以下の3つの特徴を備えています。
1. 優れた実行時パフォーマンスと能力
PhoneLMは、スマートフォンハードウェア上での徹底的な事前アーキテクチャ検索を通じて、非常に効率的に動作します。例えば、PhoneLM-1.5Bは、Xiaomi 14 (Snapdragon 8Gen3 SoC) CPU上で58トークン/秒で動作し、これは同程度のパラメータサイズを持つStableLM 2 1.6Bよりも1.2倍、SmolLM 1.7Bよりも1.6倍高速です。PhoneLM-1.5Bの事前処理速度は、Xiaomi 14 NPU上で654トークン/秒に達します。
2. スマートフォンへの導入の容易さ
PhoneLMは、ReLU活性化関数を使用し、NPUに適した量子化とスパース活性化を容易にするアーキテクチャを採用しています。
3. オープンソース、再現性、およびデモンストレーション
PhoneLMは、完全にオープンソース化されており、再現性があり、デモンストレーションが可能です。PhoneLMは、操作を加えることなく、オープンデータセットのみでトレーニングされています。