Linnk AI 다운로드
•
리서치 어시스턴트
>
로그인
통찰
-
Scaling Speech Recognition Models with Mixture-of-Experts
160k 시간 데이터셋에서 RTF에 최소한의 영향으로 4.7배 매개변수 확장하기: U2++ MoE
대규모 데이터셋에서 Mixture-of-Experts (MoE) 기반 모델이 Dense 모델과 유사한 정확도를 달성하면서도 더 효율적인 추론 속도를 제공할 수 있다.
1