この論文では、人工知能モデルの安全性を確保し、より安全なモデルの開発を奨励するための入札ベースの規制メカニズムを提案している。
まず、現在の人工知能モデル、特に大規模言語モデルの展開に伴う安全性、バイアス、法的問題について説明している。これらの問題に対処するための一貫した業界全体の解決策がまだ見つかっていないことを指摘している。
次に、この問題に取り組むために、人工知能規制プロセスを数学的に定式化し、より安全なモデルの開発と展開を奨励するメカニズムを開発することを目的としている。具体的には、モデル構築者(企業)が規制当局に自社のモデルを提出する入札ベースのオークションを提案している。規制当局の役割は2つ:1)安全性基準を満たさないモデルの展開を禁止すること、2)より安全なモデルの開発を奨励するために追加の報酬を提供すること。
理論的な分析により、提案するオークションメカニズムでは、参加者が安全性基準を上回るモデルを提出するのが最適な戦略であることを示している。また、シミュレーション実験の結果、提案手法は単純な規制フレームワークに比べて、モデルの安全性を20%向上させ、参加率を15%向上させることができることを示している。
翻译成其他语言
从原文生成
arxiv.org
更深入的查询