大型語言模型 (LLM) 在驗證技術系統規格是否符合需求方面展現出潛力,尤其是在使用少量樣本提示的情況下,其準確性可與傳統基於規則的系統相媲美。
本文提出了一種名為 MPDetector 的自動化工具,用於偵測 Python 資料科學函式庫中程式碼與文件之間關於多參數約束的不一致問題。
雖然基於深度學習的代碼審查工具,如ChatGPT Plus,可以識別出大多數被審查者認為有效的程式碼問題,但它們並不能提高發現高嚴重性問題的可能性,也不能節省審查時間,而且可能會讓審查者產生偏見,只關注自動化審查工具所標記的程式碼部分。
隨著生成式人工智慧(GenAI)工具的迅速普及,電腦科學教育需要了解學生如何使用這些工具,以及如何調整教學策略,以培養學生負責任地使用 GenAI 並為未來職場做好準備。
軟體開發者對使用生成式 AI 工具進行程式碼編寫所帶來的授權和版權問題存在廣泛的看法,許多開發者意識到這些複雜法律問題的細微差別和複雜性。
大型語言模型(LLM)的快速發展為開發人員帶來了獨特的挑戰,本研究分析了 Stack Overflow 和 OpenAI 開發者論壇上的貼文,揭示了開發人員在使用和實作 LLM 時遇到的常見困難和問題。
本文提出了一種名為「蹺蹺板」生成機制的創新方法,用於動態和遞迴程式碼生成,解決了大型語言模型在生成大型程式碼專案時面臨的挑戰,例如權杖限制、依賴管理和迭代優化需求。
本文旨在提出一個通用的物聯網軟體架構,強調以品質屬性驅動設計的重要性,並探討邊緣運算、微服務和事件驅動架構等關鍵風格,以實現可擴展、可靠且易於維護的物聯網系統。
儘管較小型語言模型在程式碼生成方面展現潛力,但其產生的程式碼在功能正確性和品質方面仍存在顯著問題,尤其在經過量化處理後,更突顯出這些模型在實際軟體開發應用中的局限性。
程式碼可讀性評估因開發者而異,本研究提出了一種利用協同過濾方法校準大型語言模型評估結果,實現個人化評估,從而提高程式碼可讀性評估的準確性。