Core Concepts
オープンソースの汎用的な生成型AIモデルを責任を持って公開することが重要である。
Abstract
本レポートでは、オープンソースの汎用的な生成型AIモデルの短期・中期的なリスクと機会について分析している。
まず、汎用的な生成型AIの発展段階を3つに分類し(短期、中期、長期)、現在のモデル開発パイプラインの構成要素を明らかにした。次に、これらの要素の公開レベルを分類するタクソノミーを提案し、40の主要な大規模言語モデルの分析を行った。
その上で、オープンソースモデルとクローズドソースモデルの品質、透明性、研究・学術的影響、イノベーション・産業・経済的影響、安全性、社会・環境的影響といった観点から、短期・中期的なリスクと機会を詳細に検討した。
最後に、オープンソースの汎用的な生成型AIモデルを安全かつ責任を持って公開するための具体的な提言を行った。これには、データの透明性と出自の改善、オープンな評価・ベンチマーキングの実施、多層的なセキュリティ監査の実施、クローズドソースモデルとの比較、社会的影響の包括的な調査などが含まれる。
本レポートは、オープンソースの汎用的な生成型AIの短期・中期的な影響について、バランスの取れた分析を提供するものである。
Stats
汎用的な生成型AIモデルの開発には膨大なコストがかかる(Knight, 2023)。
閉鎖型モデルでも、ジェイルブレイクなどの手法によって安全性を回避できる(Zou et al., 2023; Chao et al., 2023)。
閉鎖型モデルへのアクセスを制限することは困難である(Cox, 2023; AsuharietYgvar, 2021; Oliynyk et al., 2023)。
規制は閉鎖型モデルの安全性を完全に保証するものではない(Verma, 2023; Burgess, 2023; Cuthbertson, 2023; Roscoe, 2023)。
Quotes
"オープンソースのモデルは、柔軟性と カスタマイズ性が高く、特定のユースケースに合わせて高性能なモデルを作成できる。"
"オープンソースは透明性を高め、信頼性を向上させる。モデルを誰もが検証・評価できるようになる。"
"オープンソースは研究の進展を後押しし、イノベーションを促進する。モデルの内部メカニズムを深く理解できるようになる。"