本論文では、AURORA-Mという新しい15Bパラメーターの多言語オープンソース言語モデルを紹介する。AURORA-Mは、StarCoderPlusをベースに435億トークンの追加プリトレーニングを行っており、合計2兆トークンの学習データを持つ。また、人間レビューの安全性指示に基づいてファインチューニングされており、従来のレッドチームの検討事項だけでなく、バイデン・ハリス大統領令で示された特定の懸念事項にも対応している。
AURORA-Mの評価では、以下の点が確認された:
AURORA-Mは、オープンソースの多言語言語モデルの開発における責任あるアプローチを促進するために公開される。
他の言語に翻訳
原文コンテンツから
arxiv.org
深掘り質問