Core Concepts
説明可能な人工知能モデルを使用することで、自動採点システムの予測根拠を利害関係者に示すことができる。
Abstract
本研究では、人工知能モデルの予測過程を視覚的に解釈可能にするニューラルアディティブモデル(NAM)を用いて、自動採点の説明可能性を高める手法を提案している。
KI(Knowledge Integration)フレームワークに基づいて設計された問題に対する学生の解答を対象に、NAMの性能を検証した。NAMは、人間の採点者が採点基準に基づいて重視する概念を特徴量として利用するため、予測根拠を説明できる。
NAMの性能は、ロジスティック回帰モデルよりも優れており、大規模言語モデルのDeBERTaに匹敵する。NAMの特徴重要度グラフと特徴関数のプロットから、どの概念が高得点に寄与しているかを視覚的に確認できる。
このように、NAMは自動採点の説明可能性を高める有効な手法であり、教師と学生の双方にとって有用な情報を提供できる。今後は、他の教科や問題形式への適用を検討していく必要がある。
Stats
音波に関する知識統合(KI)問題の学生解答1,313件
自動採点データセット(ASAP)の科学問題5問の学生解答約6,500件
Quotes
"NN ASAG モデルは「ブラックボックス」と呼ばれ、入力と出力しか分からず、中間の推論過程が説明できない。"
"教師は学生の理解を細かく監視できず、学生も自動採点の理由を知らずに学習できない。"
"NAMは、ニューラルネットワークの性能と加法モデルの説明可能性を組み合わせた新しいタイプのモデル。"