這篇研究論文探討了通用人工智慧 (GPAI) 評估在 AI 治理中的重要性,並特別關注歐盟在這一領域的領先地位。論文首先強調了 GPAI 發展帶來的系統性風險,包括濫用、故障或目標偏差,以及更廣泛的社會風險。GPAI 評估,如基準測試、紅隊演練和人類提升研究,被視為評估和減輕這些風險的關鍵工具。
論文接著論述了 GPAI 評估在全球和歐盟 AI 治理中的作用。作者指出,評估結果是 GPAI 模型能力和目標一致性的指標,並已成為主要 GPAI 供應商制定擴展政策和安全框架的基礎。歐盟的 AI 法案更是賦予了 GPAI 評估法律效力,要求供應商對具有系統性風險的 GPAI 模型進行評估。
為了提高 GPAI 評估的品質和可靠性,論文提出了四個關鍵指標:內部效度、外部效度、可重複性和可移植性。內部效度確保評估結果準確反映模型在評估環境中的真實表現;外部效度則關注評估結果對真實世界情境的推論能力;可重複性要求評估結果在相同條件下可被複製;可移植性則強調評估方法在不同機構和硬體環境中的適用性。
論文進一步指出,僅僅制定標準是不夠的,因為 GPAI 技術和應用環境不斷演變。因此,論文建議成立一個歐盟通用人工智慧評估標準工作小組 (簡稱「工作小組」),負責制定和更新 GPAI 評估標準,以適應不斷變化的風險環境。工作小組將由來自學術界、民間社會、第三方模型審計供應商、監管機構和政府專家的技術專家組成。
工作小組的主要職責包括:協調風險分類和 GPAI 模型評估方法;制定和更新 GPAI 評估標準;以及對評估進行品質控管。論文還討論了工作小組的潛在組織架構,建議將其設置在歐盟 AI 法案所建立的機構內,例如獨立專家科學小組或諮詢論壇。
為了確保工作小組的成功,論文呼籲 GPAI 供應商做出承諾,包括提供文件、模型和數據訪問權限。這些承諾可以納入歐盟 AI 法案的實務守則中。
最後,論文探討了歐盟 GPAI 評估標準對全球的潛在影響。作者認為,歐盟作為 GPAI 評估標準的先行者,可能通過法律和事實上的「布魯塞爾效應」影響國際規範和 GPAI 供應商的行為。
總之,這篇研究論文強調了建立標準化 GPAI 評估方法的重要性,並提出了成立歐盟通用人工智慧評估標準工作小組的具體建議。工作小組的成立將有助於提高 GPAI 評估的品質和可靠性,從而促進有效的 AI 治理,並減輕 GPAI 發展帶來的潛在風險。
翻譯成其他語言
從原文內容
arxiv.org
深入探究