แนวคิดหลัก
医療AIの民主化を目指すための軽量多言語医療LLMの開発とその効果的な利用方法に焦点を当てる。
บทคัดย่อ
世界中で最も話されている6つの言語に焦点を当て、医療AIの普及を目指す。ApolloCorporaとXMedBenchデータセットの作成。Apolloモデルは異なるサイズで最高性能を達成し、Proxy Tuningメソッドが大規模モデルの多言語医療能力向上に貢献。
สถิติ
Apollo-7Bは70Bまでの最先端多言語医療LLMです。
ApolloCorporaには25億トークンが含まれます。
6つの言語ごとに異なるサイズ(0.5B、1.8B、2B、6B、7B)のリリースされたApolloモデルが同等サイズのモデルよりも優れたパフォーマンスを達成します。
プロキシチューニングにより、Apolloは大規模一般LLMへのマルチリンガル医療機能を向上させます。
คำพูด
"Despite the vast repository of global medical knowledge predominantly being in English, local languages are crucial for delivering tailored healthcare services."
"Apollo ranges from 2B to 7B parameters."
"Our pilot study reveals that joint training of multiple languages enhances performance in the medical LLMs."