Vassar, A., Renzella, J., Ross, E., & Taylor, A. (2024). Towards Pedagogical LLMs with Supervised Fine Tuning for Computing Education. In Proceedings of the ACM Technical Symposium on Computer Science Education. https://doi.org/XXXXXXX.XXXXXXX
本研究は、大規模言語モデル (LLM) を教師ありファインチューニングによって計算教育、特にプログラミング教育において、より効果的な教育ツールへと進化させることができるかを検証することを目的とする。
オーストラリアの大学のプログラミングコースフォーラムから収集した2,500件の質の高い質問と回答のペアデータセットを用いて、OpenAIのChatGPT3.5モデルをファインチューニングした。データセットは、回答が正しく、役立ち、自己完結型であり、解決策ではなく提案を提供し、形式的な口調でありながら見下すようなものではなく、コードブロックを例としてのみ含み、名前、特定の課題、または実験演習を避け、プログラミング言語の理解、バグ、およびスタイルに焦点を当てていることを確認するために、手動でフィルタリングされた。
初期のファインチューニングモデル (FT1) は、品質に問題があったが、手動フィルタリングによって大幅に改善されたファインチューニングモデル (FT2) が開発された。FT2は、GPT-3.5のように直接的な解決策を提供するのではなく、学生に特定のアプローチを検討するよう促す、よりソクラテス的な対話形式で回答を生成することができた。
教師ありファインチューニングを用いることで、LLMを計算教育において、構成主義などの教育原則に沿った、より効果的な教育ツールへと進化させることができる可能性がある。
本研究は、LLMが教育分野、特にプログラミング教育において、学生の学習を支援する効果的なツールとなる可能性を示唆している。
本研究では、FT2の品質を厳密に測定するために、さらなる評価が必要である。また、他の教育機関や他の教育レベルにおけるLLMの有効性についても検討する必要がある。
他の言語に翻訳
原文コンテンツから
arxiv.org
深掘り質問