LLM의 코드 완성 능력을 활용한 새로운 텍스트 분류 기법인 CoCoP는 기존 few-shot learning보다 성능이 뛰어나며, 특히 코드 모델에서 그 효과가 두드러진다.
본 논문에서는 사전 훈련된 언어 모델(LERT), 신경망(CNN, BiLSTM), 적대적 훈련(FGM)을 결합하여 통신 사기 사건 텍스트 분류의 정확도와 강건성을 향상시킨 텍스트 분류 모델을 제안합니다.
본 논문에서는 클래스 불균형 텍스트 분류 문제를 해결하기 위해 클래스 인식 대조적 손실 함수(CAROL)를 사용한 새로운 오토인코더 기반 접근 방식을 제안합니다.
본 논문에서는 실제 레이블 노이즈를 포함하는 대규모 텍스트 분류 벤치마크 데이터셋인 AlleNoise를 소개하고, 기존의 레이블 노이즈 완화 방법들이 AlleNoise의 실제 노이즈를 효과적으로 처리하지 못한다는 것을 실험적으로 보여줍니다.
본 논문에서는 광범위한 사전 훈련된 대규모 언어 모델(LLM)을 활용하여 기존 텍스트 분류 시스템을 간소화하고, 특히 비전문가도 쉽게 사용할 수 있도록 접근성을 높인 적응력 있고 안정적인 텍스트 분류 프레임워크를 제안합니다.
본 논문에서는 텍스트 분류 작업에서 예측과 자연어 설명을 모두 제공할 수 있는 새로운 파이프라인 개념을 소개하고, 그리스어 트윗의 감정 분석 및 공격적 언어 식별 작업을 통해 사용자 중심 평가를 수행합니다.
간단한 텍스트 분류 작업의 경우, 성능 저하나 추가적인 라벨링 비용 없이 대형 상용 모델 대신 소형 로컬 생성 언어 모델을 사용하여 이점을 얻을 수 있습니다.