Core Concepts
개발된 Apollo은 61억 인구를 대상으로 하는 최첨단 다국어 의료 LLMs를 제공합니다.
Abstract
Apollo는 6개의 주요 언어로 의료 LLMs를 개발하고 세계 인구의 61억을 대상으로 합니다.
ApolloCorpora와 XMedBench를 생성하여 다국어 의료 벤치마크를 제공합니다.
다양한 크기의 Apollo 모델은 동등한 크기의 모델들 중 최고의 성능을 보입니다.
ProxyTuning을 통해 Apollo는 대형 일반 LLMs의 다국어 의료 능력을 향상시킵니다.
다국어 의료 LLMs의 성능을 향상시키기 위해 Mix Training 및 Proxy Tuning 방법을 사용합니다.
Stats
Released Apollo models, at various relatively-small sizes (i.e., 0.5B, 1.8B, 2B, 6B, and 7B), achieve the best performance among models of equivalent size.
Especially, Apollo-7B is the state-of-the-art multilingual medical LLMs up to 70B.
The released Apollo models are open-source and include training corpora, code, model weights, and evaluation benchmark.
Quotes
"Despite the vast repository of global medical knowledge predominantly being in English, local languages are crucial for delivering tailored healthcare services."
"Apollo-7B is the state-of-the-art multilingual medical LLMs up to 70B."