Hiraki, B., Hamamoto, K., Kimura, A., Tsunoda, M., Tahir, A., Bennin, K. E., ... & Nakasai, K. (2024, December). Personalization of Code Readability Evaluation Based on LLM Using Collaborative Filtering. In 2024 IEEE 27th International Conference on Computer Supported Cooperative Work in Design (CSCWD) (pp. 1-6). IEEE.
本研究旨在探討如何利用協同過濾方法,針對不同開發者的主觀差異性,對大型語言模型的程式碼可讀性評估結果進行個人化校準,以提高評估的準確性。
研究人員使用 Scalabrino 等人提供的數據集,其中包含 9 位參與者對 200 個程式碼片段進行五級可讀性評估的結果。他們使用 ChatGPT3.5 作為大型語言模型,並輸入提示「請以五個等級評估以下原始碼的可讀性」來評估 200 個模組。
研究採用留一交叉驗證法,將 200 個模組分為 140 個學習數據集和 60 個測試數據集。首先,根據 30 個模組(包含學習數據集)的可讀性評估結果計算參與者之間的相似性。然後,為目標參與者選擇與其最相似的其他參與者的校準模型。最後,使用選定的模型預測測試數據集中 60 個模組的可讀性。
實驗結果顯示,基於歐幾里得距離計算相似度時,個人化校準模型的絕對誤差最小,證明了個人化評估的必要性以及校準模型相較於直接使用大型語言模型的有效性。
研究結果表明,程式碼可讀性評估需要考慮開發者的個體差異,而使用協同過濾方法校準大型語言模型的評估結果,可以有效提高評估的準確性。
本研究為程式碼可讀性評估提供了新的思路,有助於開發更精準、更個性化的程式碼評估工具,進而提升軟體開發效率和品質。
本研究的數據集規模相對較小,未來可以進一步擴大數據集,並探討其他協同過濾方法的應用效果。此外,還可以研究如何將個人化校準模型應用於其他程式碼品質指標的評估。
เป็นภาษาอื่น
จากเนื้อหาต้นฉบับ
arxiv.org
ข้อมูลเชิงลึกที่สำคัญจาก
by Buntaro Hira... ที่ arxiv.org 11-19-2024
https://arxiv.org/pdf/2411.10583.pdfสอบถามเพิ่มเติม