Last ned Linnk AI
•
Forskningsassistent
>
Logg Inn
innsikt
-
Scaling Speech Recognition Models with Mixture-of-Experts
160k 시간 데이터셋에서 RTF에 최소한의 영향으로 4.7배 매개변수 확장하기: U2++ MoE
대규모 데이터셋에서 Mixture-of-Experts (MoE) 기반 모델이 Dense 모델과 유사한 정확도를 달성하면서도 더 효율적인 추론 속도를 제공할 수 있다.
1