المفاهيم الأساسية
LLM의 코드 완성 능력을 활용한 새로운 텍스트 분류 기법인 CoCoP는 기존 few-shot learning보다 성능이 뛰어나며, 특히 코드 모델에서 그 효과가 두드러진다.
الملخص
CoCoP: LLM 코드 완성 프롬프트를 활용한 텍스트 분류 성능 향상
본 연구는 대규모 언어 모델(LLM)의 코드 완성 능력을 활용하여 텍스트 분류 작업의 성능을 향상시키는 것을 목표로 한다.
본 논문에서 제안된 CoCoP(Code Completion Prompt)는 텍스트 분류 문제를 코드 완성 작업으로 변환하는 새로운 접근 방식이다.
CoCoP 작동 방식
입력: 텍스트 분류 문제, 몇 가지 예시 텍스트와 레이블, 분류할 쿼리
불완전 코드 생성: 예시 텍스트와 레이블을 사용하여 코드 형태의 데모를 생성하고, 쿼리를 미완성 함수 호출로 변환하여 불완전한 코드를 생성한다.
LLM 코드 완성: 생성된 불완전 코드를 LLM에 입력하여 코드를 완성하도록 한다. LLM은 주어진 데모를 기반으로 쿼리에 대한 레이블을 예측하여 코드를 완성한다.
레이블 추출: 완성된 코드에서 LLM이 예측한 레이블을 추출한다.
CoCoP의 장점
LLM의 강력한 코드 완성 능력을 활용하여 텍스트 분류 성능을 향상시킨다.
few-shot learning 방식을 사용하여 적은 양의 데이터로도 효과적인 학습이 가능하다.
코드 모델(CodeLLaMA)과 함께 사용할 경우, 기존 모델(LLaMA2)보다 높은 성능을 보인다.
작은 크기의 코드 모델(7B, 13B)에서도 큰 모델(70B)에 필적하는 성능을 달성할 수 있다.