製品関連情報を活用して、リソースの乏しい市場での質問に対する回答の質を向上させることができる。
多言語大言語モデル(LLM)を用いて、低リソース言語の翻訳性能を向上させる手法Mufu(Multilingual Fused Learning)を提案する。Mufu prompts では、複数の多言語翻訳候補と校正対象を組み合わせることで、LLMに対して翻訳の推論と校正を行わせる。これにより、低リソース言語の翻訳精度を大幅に向上させることができる。
大規模言語モデルの命令チューニングデータの一部を悪意のある方法で汚染することで、他の言語の出力も悪意のある動作を示すようになる。
多言語かつマルチモーダルの名称抽出(MMNER)タスクに取り組むための新しいモデル2M-NERを提案する。2M-NERは、対照学習を使ってテキストと画像の表現を整列させ、マルチモーダルの協調モジュールを統合することで、効果的にモダリティ間の相互作用を表現する。
優先順位最適化を通じて、非主要言語の推論プロセスを主要言語の推論プロセスに整合させることで、多言語推論能力を向上させる。
多言語環境における顔声関連付けの影響を分析することが本チャレンジの主な目的である。