本論文では、AURORA-Mという新しい15Bパラメーターの多言語オープンソース言語モデルを紹介する。AURORA-Mは、StarCoderPlusをベースに435億トークンの追加プリトレーニングを行っており、合計2兆トークンの学習データを持つ。また、人間レビューの安全性指示に基づいてファインチューニングされており、従来のレッドチームの検討事項だけでなく、バイデン・ハリス大統領令で示された特定の懸念事項にも対応している。
AURORA-Mの評価では、以下の点が確認された:
AURORA-Mは、オープンソースの多言語言語モデルの開発における責任あるアプローチを促進するために公開される。
In un'altra lingua
dal contenuto originale
arxiv.org
Approfondimenti chiave tratti da
by Taishi Nakam... alle arxiv.org 04-02-2024
https://arxiv.org/pdf/2404.00399.pdfDomande più approfondite