코드 대조 튜닝(CCT)은 코드 대형 언어 모델의 코드 오류 감지 능력을 높이기 위해 토큰 수준과 시퀀스 수준의 비교 메커니즘을 지침 튜닝에 통합한 간단하고 효과적인 튜닝 방법입니다.
코드 언어 모델의 성능 평가 시 데이터 오염 문제가 발생할 수 있으며, 최근 데이터 사용, 새로운 데이터 큐레이션, 코드 리팩토링 등의 대응책이 제안되었지만 그 효과가 명확하지 않다.