Core Concepts
프로젝트별 편향 학습 행동을 분석하고 이를 해결하기 위한 새로운 메커니즘을 제안합니다.
Abstract
신경 코드 모델의 프로젝트별 편향 학습 행동을 분석하고 해석합니다.
새로운 편향 완화 메커니즘인 BPR을 제안하고 실험 결과를 제시합니다.
두 가지 대표적인 프로그램 분석 작업에 대한 실험 결과를 제시하고 결과를 해석합니다.
다양한 편향 완화 방법을 평가하고 BPR이 일반화 및 강건성을 향상시키는 능력을 입증합니다.
실험 결과를 통해 BPR이 내부 프로젝트 및 외부 프로젝트 데이터에서 성능을 향상시키는 것을 확인합니다.
Stats
대규모 언어 모델은 다양한 하향 작업에서 상태-of-the-art 성능을 달성합니다.
프로젝트별 편향 학습 행동은 모델의 일반화 능력을 저하시킵니다.
BPR은 모델의 학습 행동을 규제하여 일반화 및 강건성을 향상시킵니다.
Quotes
"프로젝트별 편향 학습 행동은 모델의 일반화 능력을 저하시킵니다."
"BPR은 모델의 학습 행동을 규제하여 일반화 및 강건성을 향상시킵니다."