Core Concepts
대규모 언어 모델을 활용하여 데이터 희소성이 높은 사용자에 대한 추천 성능을 향상시키는 효율적이고 책임감 있는 프레임워크를 제안한다.
Abstract
이 논문은 대규모 언어 모델(LLM)과 전통적인 추천 시스템(RS)의 장점을 결합하여 데이터 희소성이 높은 사용자에 대한 추천 성능을 향상시키는 효율적이고 책임감 있는 프레임워크를 제안한다.
첫째, 사용자의 상호작용 이력과 추천 성능 지표를 기반으로 "약한 사용자"를 식별한다. 둘째, 약한 사용자의 선호도를 LLM에 맥락화하여 제공함으로써 LLM이 이들에 대한 추천을 생성할 수 있도록 한다. 셋째, 강한 사용자에게는 전통적인 RS의 추천을, 약한 사용자에게는 LLM의 추천을 제공한다.
실험 결과, 제안 프레임워크는 세 가지 실제 데이터셋에서 약 12% 향상된 모델 강건성과 약한 사용자 수 감소를 보였다. 또한 LLM 적응 비용을 효과적으로 관리할 수 있었다.
Stats
데이터셋의 희소성이 높을수록 전통적인 추천 시스템의 성능이 약한 사용자에게 크게 저하된다.
제안 프레임워크를 통해 ML1M 데이터셋에서 약 87%, ML100k 데이터셋에서 약 99%의 약한 사용자 수를 감소시킬 수 있었다.
Quotes
"전통적인 추천 시스템은 모든 학습 샘플에 대해 균일하게 성능 지표를 향상시키도록 최적화되어 있어, 다양한 사용자의 요구를 충족시키기 어렵다."
"대규모 언어 모델은 텍스트 데이터를 효과적으로 분석 및 해석할 수 있어 사용자 선호도에 대한 이해를 높일 수 있다."