Die Studie untersucht die Inkonsistenzen bei der manuellen Bewertung von Programmieraufgaben in einem einführenden Informatikkurs. Die Autoren zeigen, dass Bewerter deutlich genauere Bewertungen abgeben, wenn sie zuvor ähnliche Lösungen bewertet haben. Basierend auf dieser Erkenntnis entwickeln sie drei Algorithmen, die Aufgaben so den Bewertern zuordnen und anordnen, dass die Ähnlichkeit zwischen aufeinanderfolgenden Lösungen maximiert wird. In Simulationen zeigen die Autoren, dass diese Algorithmen die Bewertungsgenauigkeit im Vergleich zum derzeitigen Standard der zufälligen Zuordnung deutlich verbessern können. Die Studie liefert wichtige Erkenntnisse, um die Fairness und Qualität der Leistungsbewertung in Programmieraufgaben zu erhöhen.
To Another Language
from source content
arxiv.org
Thông tin chi tiết chính được chắt lọc từ
by Sonja Johnso... lúc arxiv.org 03-25-2024
https://arxiv.org/pdf/2403.14637.pdfYêu cầu sâu hơn