Vassar, A., Renzella, J., Ross, E., & Taylor, A. (2024). Towards Pedagogical LLMs with Supervised Fine Tuning for Computing Education. Proceedings of the ACM Conference on International Computing Education Research, 1(1), 1-3. https://doi.org/XXXXXXX.XXXXXXX
本研究旨在探討如何透過監督式微調,提升大型語言模型在計算機教育中的教學效果,使其更符合建構主義等教育原則。
研究人員從大學程式設計課程論壇中,收集了 2,500 對高質量的問答數據,並對其進行了數據清理和人工篩選,最終得到 528 對符合標準的數據。這些數據被用於微調 OpenAI 的 ChatGPT 3.5 模型,並將其部署到一個大型澳洲大學的 600 多名程式設計學生中進行測試。
初步結果顯示,經過微調的模型 (FT2) 在教學方面表現出更符合教育原則的特點,例如:使用更具啟發性的語氣引導學生思考,而非直接提供解決方案。
透過基於大學課程論壇問答數據的監督式微調,可以有效提升大型語言模型在計算機教育中的教學效果,使其更符合建構主義等教育原則。
本研究為開發更有效的計算機教育輔助工具提供了新的思路,並為大型語言模型在教育領域的應用提供了實證依據。
本研究的數據集規模相對較小,未來需要進行更大規模的數據收集和評估。此外,未來研究還可以探討如何將其他教育理論融入到大型語言模型的微調過程中。
翻譯成其他語言
從原文內容
arxiv.org
深入探究