本研究では、人工知能モデルの予測過程を視覚的に解釈可能にするニューラルアディティブモデル(NAM)を用いて、自動採点の説明可能性を高める手法を提案している。
KI(Knowledge Integration)フレームワークに基づいて設計された問題に対する学生の解答を対象に、NAMの性能を検証した。NAMは、人間の採点者が採点基準に基づいて重視する概念を特徴量として利用するため、予測根拠を説明できる。
NAMの性能は、ロジスティック回帰モデルよりも優れており、大規模言語モデルのDeBERTaに匹敵する。NAMの特徴重要度グラフと特徴関数のプロットから、どの概念が高得点に寄与しているかを視覚的に確認できる。
このように、NAMは自動採点の説明可能性を高める有効な手法であり、教師と学生の双方にとって有用な情報を提供できる。今後は、他の教科や問題形式への適用を検討していく必要がある。
To Another Language
from source content
arxiv.org
Key Insights Distilled From
by Aubrey Condo... at arxiv.org 05-02-2024
https://arxiv.org/pdf/2405.00489.pdfDeeper Inquiries