Download Linnk AI
•
Research Assistant
>
Sign In
insight
-
Mixture-of-Experts (MoE) の高速化
$\texttt{HEXA-MoE}$:計算の冗長性をゼロに抑えた、効率的でヘテロジニアス対応のMoE高速化手法
本稿では、計算の冗長性をゼロに抑え、データ中心とモデル中心の両方の構成に対応し、ヘテロジニアス環境での利用も可能な、効率的なMoE高速化フレームワークであるHEXA-MoEを提案する。
1