本論文は、大規模言語モデル(LLM)の推論プロセスにおける問題分解と問題解決の分離に着目し、分解部分をより小型のモデルに蒸留することで、推論コストを削減しながらも高い性能を維持できることを示した研究論文である。
In un'altra lingua
dal contenuto originale
arxiv.org
Approfondimenti chiave tratti da
by Zhuofeng Wu,... alle arxiv.org 10-07-2024
https://arxiv.org/pdf/2402.15000.pdfDomande più approfondite