核心概念
NeKoは、音声認識、機械翻訳、OCRなどの認識後テキストの誤りを修正するために、タスク指向型エキスパートを用いたMixture-of-Experts(MoE)を活用した新しいマルチタスク生成型誤り修正LLMモデルである。
要約
NeKo: タスク指向型エキスパートを用いた、認識後生成型修正LLM
Yen-Ting Lin*, Chao-Han Huck Yang, Zhehuai Chen, Piotr Zelasko, Xuesong Yang, Zih-Ching Chen, Krishna C Puvvada, Szu-Wei Fu, Ke Hu, Jun Wei Chiu, Jagadeesh Balam, Boris Ginsburg, Yu-Chiang Frank Wang, NVIDIA. "NEKO: Toward Post Recognition Generative Correction Large Language Models with Task-Oriented Experts". arXiv preprint arXiv:2411.05945, 2024.
本研究は、音声認識、機械翻訳、OCRなど、異なるドメインやタスクにわたる認識後テキストの誤りを効果的に修正できる汎用的なモデルを開発することを目的とする。