本論文では、AURORA-Mという新しい15Bパラメーターの多言語オープンソース言語モデルを紹介する。AURORA-Mは、StarCoderPlusをベースに435億トークンの追加プリトレーニングを行っており、合計2兆トークンの学習データを持つ。また、人間レビューの安全性指示に基づいてファインチューニングされており、従来のレッドチームの検討事項だけでなく、バイデン・ハリス大統領令で示された特定の懸念事項にも対応している。
AURORA-Mの評価では、以下の点が確認された:
AURORA-Mは、オープンソースの多言語言語モデルの開発における責任あるアプローチを促進するために公開される。
إلى لغة أخرى
من محتوى المصدر
arxiv.org
الرؤى الأساسية المستخلصة من
by Taishi Nakam... في arxiv.org 04-02-2024
https://arxiv.org/pdf/2404.00399.pdfاستفسارات أعمق