核心概念
본 논문은 대규모 언어 모델(LLM)을 컴퓨팅 교육에 효과적으로 활용하기 위해 감독된 미세 조정을 통해 교육적 원칙에 맞춰 정렬하는 방법을 연구하고, 그 가능성을 제시합니다.
要約
컴퓨팅 교육을 위한 지도적 LLM: 감독된 미세 조정을 통한 교육적 정렬 개선에 대한 연구
본 연구는 대규모 언어 모델(LLM)이 학습 결과에 부정적인 영향을 미칠 수 있다는 우려를 해결하기 위해 컴퓨팅 교육에서 LLM의 교육적 정렬을 개선하기 위한 감독된 미세 조정을 연구합니다. 특히, 대학 과정 포럼의 미세 조정 데이터 세트 기여 적합성과 감독된 미세 조정이 구성주의와 같은 교육 원칙에 LLM의 정렬을 향상시키는 방법을 중점적으로 다룹니다.
호주 뉴사우스웨일스 대학교의 프로그래밍 과정 포럼에서 수집한 2,500개의 고품질 질문/답변 쌍으로 구성된 자체 데이터 세트를 활용하여 OpenAI의 ChatGPT 3.5 모델을 미세 조정했습니다. 데이터 세트는 URL, 고유 명사 필터링, ChatGPT 4o를 사용한 문법 수정, 튜터 검증을 거쳐 정확성과 교육적 적합성을 보장했습니다. 미세 조정된 모델(FT2)은 DCC(Debugging C Compiler) 확장 프로그램인 DCC Help를 통해 600명 이상의 프로그래밍 학생에게 배포되어 실제 교육 환경에서의 효과를 평가했습니다.