Core Concepts
AIシステムの決定を説明するための法的要件を明らかにし、現在の説明可能性手法がそれらの要件を満たすことができないことを示す。
Abstract
本論文は、法律とXAI(説明可能な人工知能)の関係を調査しています。EU AI法案については多くの議論がありますが、他の法分野については十分に検討されていないことが指摘されています。
本論文では、主に欧州(一部ドイツ)の法律に焦点を当て、国際的な概念や規制(信託性の確認、GDPR、製品安全性と責任)も考慮しています。XAIのタクソノミーに基づき、各法的根拠から XAI 手法に対する要件を導出しています。その結果、各法的根拠は異なるXAI特性を要求しており、現状の技術では特に正確性(時に忠実性と呼ばれる)と信頼度推定に関して十分に満たされていないことが明らかになりました。
Stats
AIシステムの決定の説明可能性は、そのシステムの開発と展開に不可欠である。
EU AI法案は、ユーザーが結果を適切に解釈し利用できるよう「十分な透明性」を確保することを義務付けている。
しかし、この「十分な透明性」の要件の曖昧さと、正確にどのようなものを意味するかが課題となっている。
Quotes
「説明可能性の要件は、アルゴリズムの決定過程を理解できるようにすることを意味する。単に、モデル自体を開示するだけでは不十分である。」
「法律と技術の専門家が協力して、XAIの法的および技術的な解決策に合意に達することが重要である。」