코드 주석은 자연어와 코드 언어를 연결하는 자연스러운 논리적 중심이며, 이를 활용하면 코드 생성 능력을 향상시킬 수 있다.
LLM 기반 코드 생성에서 발생하는 다양한 유형의 환각을 체계적으로 분석하고 이를 바탕으로 환각 탐지 및 완화를 위한 방안을 제시한다.
대형 언어 모델의 추론 능력을 소규모 모델에 전달하여 소규모 모델의 코드 생성 성능을 향상시킬 수 있다.
대규모 언어 모델(LLM)은 고정된 문맥 창 크기로 인해 긴 일관된 출력을 생성하는 데 제한적이다. L2MAC은 LLM 기반의 저장 프로그램 자동 컴퓨터 프레임워크로, 제어 장치를 통해 LLM 에이전트의 문맥을 관리하고 메모리 저장소와의 정확한 읽기/쓰기 기능을 제공하여 복잡한 사용자 요구 사항을 충족하는 광범위한 코드를 생성할 수 있다.
보조 함수는 언어 모델의 코드 생성 능력을 향상시키는 데 도움이 되지만, 이에 대한 체계적인 탐구가 아직 이루어지지 않았다. 이 연구에서는 최근 코드 사전 학습된 언어 모델이 보조 함수를 활용하는 능력을 종합적으로 평가한다.
LLM 생성 코드에는 다양한 유형의 버그가 존재하며, 이는 사람이 작성한 코드와는 다른 특징을 보인다.
대규모 언어 모델은 도메인 특화 코드 생성에 있어 제한적인 성능을 보이며, 도메인 지식 통합을 통해 성능 향상이 가능하다.