Conceptos Básicos
対話型の視覚的説明は、人間-AI チームの分類精度を必ずしも向上させるわけではない。
Resumen
本研究では、CHM-Corr[47]という最先端の視覚的対応説明モデルに基づいて、ユーザーが入力画像の注目領域を指定できる対話型インターフェース「CHM-Corr++」を開発した。
- CHM-Corr++では、ユーザーが画像の特定の領域を選択することで、AIモデルの注意力を制御し、その結果として変化する予測と説明を動的に観察できる。
- 18人のMachine Learning研究者を対象にした実験では、対話型の動的説明は、静的な説明と比べて、ユーザーの分類精度向上に寄与しないことが明らかになった。
- この結果は、対話性が必ずしも理解を深めるわけではないという従来の仮説に疑問を投げかけている。
- 分析の結果、AIモデルの初期予測が正しい場合、ユーザーは動的説明を活用して予測を受け入れる傾向にあるが、初期予測が誤っている場合、ユーザーはモデルの予測を訂正することが難しいことが分かった。
- 今後の研究では、対話型説明の有効性を高めるためのアプローチを探る必要がある。
Estadísticas
実験参加者18人が合計1400の判断を行った。
参加者の静的説明時の平均正解率は72.68%、動的説明時は73.57%であった。
AIの初期予測が正しい場合の参加者の正解率は、静的説明で85.21%、動的説明で86.79%であった。
AIの初期予測が誤っている場合の参加者の正解率は、静的説明で60.13%、動的説明で59.39%であった。
Citas
「対話性が必ずしも理解を深めるわけではない」
「AIモデルの初期予測が正しい場合、ユーザーは動的説明を活用して予測を受け入れる傾向にあるが、初期予測が誤っている場合、ユーザーはモデルの予測を訂正することが難しい」