Core Concepts
지식 추적 모델에서 지식 개념(KC) 간 데이터 누출 문제를 해결하고 공정한 벤치마크 환경을 제공하는 프레임워크를 소개한다.
Abstract
이 논문은 지식 추적(Knowledge Tracing, KT) 모델에서 발생할 수 있는 데이터 누출 문제와 이를 해결하기 위한 방법을 제안한다.
평가 문제:
기존 "one-by-one" 평가 방식은 KC 간 데이터 누출로 인해 잘못된 결과를 초래할 수 있다.
"all-in-one" 평가 방식은 더 정확하지만 계산 비용이 높다.
모델 간 비교 시 동일한 질문 시퀀스 길이를 사용해야 한다.
학습 문제:
모델이 KC 간 데이터 누출을 학습할 수 있어 성능이 저하될 수 있다.
이 문제는 평균 KC/질문 수가 높은 데이터셋에서 더 두드러진다.
이를 해결하기 위해 다음과 같은 방법을 제안한다:
자기회귀 디코딩 DKT (DKT-AD)
질문 마스킹 AKT (AKT-QM)
마스크 레이블 DKT (DKT-ML) 및 AKT (AKT-ML)
DKT 평균 임베딩 (DKT-Fuse)
이 방법들은 데이터 누출을 방지하고 공정한 벤치마크 환경을 제공한다. 실험 결과, 제안된 모델 변형이 기존 모델보다 우수한 성능을 보였다.
Stats
데이터셋의 평균 KC/질문 수가 높을수록 기존 모델의 성능이 크게 저하된다.
DKT와 AKT는 CorrAS09 데이터셋에서 각각 0.6327, 0.6455의 AUC를 보였지만, 제안된 모델 변형들은 0.7155 이상의 AUC를 달성했다.
Duolingo2018과 Riiid2020 데이터셋에서도 제안된 모델 변형들이 기존 모델보다 월등히 높은 성능을 보였다.