核心概念
XAIシステムのユーザビリティ、実用的な解釈可能性、および効果を向上させるために、説明可能なインターフェース(EI)の設計と開発に焦点を当てた研究。
要約
この論文は53の出版物を体系的に調査し、人間-XAI相互作用の現在のトレンドとEIデザインおよび開発の有望な方向を特定する。XAIアルゴリズムが何を説明すべきかに焦点を当てる一方で、EI研究は特定のユーザーグループに対して効果的な方法でどのように説明するかに関するもの。EI研究は本質的にユーザー/人間中心であり、実際のユーザーのニーズにより適したXAIを設計する方法について多くの基本的な問題を浮き彫りにします。
1. 導入
- XAI(eXplainable AI)研究分野が透明性と信頼性を高めることでAIおよび機械学習(ML)を人間らしくすることが目指されている。
- XAIシステムは技術的説明力で重要な進展を遂げているが、実際のユーザーが必要とする効果的な説明を生成することに限界がある。
- ユーザーがXAI説明内容を十分理解して使用できるかどうか不確実性が残っている。
2. 関連作業
- XAI分野では一般的なトレンドや機会に関する多数のレビュー記事が存在している。
- XAI研究全体ではなく、XAI研究デザイン側面に焦点を当てたレビュー記事は比較的少数で最近登場している。
3. 方法
- 現在行われている人間中心XAIシステム(特にEI)設計および評価方法を理解するため、53件の出版物から情報抽出しました。
- 出版物は主要部分だけでなく、EI全体も評価されました。
4. 結果
- EIデザイン要件:視覚階層や必要機能。多くは複数回答やグローバル概要表示が求められています。
- EIデザイン結果:情報アーキテクチャや対話型タイプ。主流は順次情報アーキテクチャです。
- 評価メトリクス:透明性や効果性等。主流はシステム効果です。
統計
XAIシステムは低解釈性問題から生じた黒箱型機械学習モデルと無関係アプローチを採用しています。
主流評価メトリクスはシステム効果です。
引用
"最近ではHCIコミュニティから成長し始めたエキサイタブル・インタフェース・デザインおよび開発へ関心が高まっています" - Chromik et al.