Core Concepts
BERTを超える新しいAutoregressive Multi-trait Essay Scoring(ArTS)モデルが、複数のスコアを予測することで効果的な結果を示す。
Abstract
Abstract:
BERTに代わるArTSモデルが提案され、複数のスコアを予測することで効率的なAESを実現。
T5を活用したデコーディングプロセスにより、従来のエンコーダーだけではなく、テキスト生成タスクとしてAESを再定義。
Introduction:
AESにおけるBERTベースモデルの成功と、多重特性AESへの拡張の必要性が示唆される。
ArTSは従来の手法よりも優れた結果を示し、トレイト間依存関係やトレイト順序に焦点を当てる。
Autoregressive Essay Multi-trait Scoring (ArTS):
T5をファインチューニングし、テキスト生成タスクとしてAESを捉える新しいフレームワーク。
テキストから各トレイトスコアを抽出し、単一モデルで複数の予測値を得る方法。
Experiment:
ASAP/ASAP++およびFeedback PrizeデータセットでArTSモデルが他手法よりも5%以上改善された結果。
Prompt番号ガイダンスやトレイト予測順序など、さまざまな実験結果が提示されている。
Conclusion:
ArTSは高い効率性と競争力あるパフォーマンスを持ち、将来のAESに革新的な道筋を開く可能性がある。
Stats
最適化されたマルチトレイト戦略へ向けた限界:「BERT-based models that predict a single numeric score for multi-trait predictions would require replicating multiple models, making it resource-inefficient.」
Quotes
"Unlike existing regression or classification methods, we redefine AES as a score-generation task, allowing a single model to predict multiple scores."
"ArTS remarkably outperformed the baseline model on the ASAP and ASAP++ datasets."