Core Concepts
기존 추천 모델과 대규모 언어 모델의 장점을 결합하여 추천 성능을 향상시킬 수 있다.
Abstract
이 논문은 기존 추천 모델(CRM)과 대규모 언어 모델(LLM)의 성능을 비교하고, 이들의 장단점을 활용하는 협업 추천 모델 CoReLLa를 제안한다.
실험 결과:
CRM은 대부분의 데이터에서 LLM보다 우수한 성능을 보였지만, LLM은 CRM이 낮은 확신을 보이는 데이터 세그먼트에서 더 나은 성과를 달성했다.
CoReLLa는 CRM이 쉬운 샘플을 처리하고 LLM이 어려운 샘플을 처리하는 방식으로 이들의 강점을 활용한다. 또한 결정 경계 이동 문제를 해결하기 위해 단계적 공동 학습과 정렬 손실을 사용한다.
CoReLLa는 기존 CRM 및 LLM 기반 모델들을 크게 능가하는 성능을 보였다.
Stats
사용자 평점 기록이 길수록 CRM의 성능이 더 좋다.
장미 항목, 노이즈 샘플, 일관성 없는 사용자 행동 등 CRM이 낮은 확신을 보이는 데이터에서 LLM이 더 나은 성과를 보인다.
Quotes
"LLM은 CRM이 낮은 확신을 보이는 데이터 세그먼트에서 더 나은 성과를 달성했다."
"CoReLLa는 CRM이 쉬운 샘플을 처리하고 LLM이 어려운 샘플을 처리하는 방식으로 이들의 강점을 활용한다."