核心概念
生成型AIの出力を理解し、制御し、検証するためには、説明可能性が重要である。生成型AIの特性から、従来の説明可能性アプローチでは不十分であり、新たな要件と可能性が生まれている。
摘要
本研究では、生成型AIの台頭に伴い、説明可能性(XAI)の重要性が高まっていることを述べている。生成型AIは、従来のAIが「認識」するだけでなく、人間が制御可能な「生成」を行うことができるようになったことを意味する。これにより、生成された出力の理解、制御、検証の必要性が高まっている。
具体的には以下のような重要性が指摘されている:
- 出力を調整する必要性: 生成型AIにより、ユーザーが出力を制御・カスタマイズできるようになったが、その方法を理解する必要がある。
- 出力の検証: 生成型AIの出力は信頼性が低く、検証が必要である。
- 広範な利用: 生成型AIは誰でも簡単に利用できるようになり、幅広い層に影響を及ぼすため、理解が重要となる。
- 高影響アプリケーション: 生成型AIは教育や医療など重要な分野で利用されるため、その影響が大きい。
- 未知のアプリケーション: 生成型AIは様々な入出力に対応できるため、予期せぬ用途が出現する可能性がある。
- 自動評価の困難さ: 生成型AIの出力は複雑で自動評価が難しい。
これらの課題に対し、従来のXAIアプローチでは不十分であり、新たな要件と可能性が生まれている。本研究ではこれらの要件を「検証可能性」「系譜」「対話性と個別化」「動的な説明」「コスト」「アライメント基準」「セキュリティ」「不確実性」などとして整理している。
統計資料
生成型AIは年間数兆ドルの価値を生み出す可能性がある。(McKinsey & Company, 2023)
生成型AIは大学レベルの試験に合格できる。(Choi et al, 2021; Katz et al, 2024)
ChatGPTは100万人のユーザーに最も早く到達した製品である。(Porter, 2023)
引述
「生成型AIは、人類を脅かすと言われている。」(The Guardian, 2023)
「XAI研究の現状は概して生産的ではない。」(Räuker et al, 2023)