Conceptos Básicos
대용량 언어 모델을 활용하여 사용자의 텍스트 기반 행동 데이터를 요약하고, 이를 바탕으로 추천 모델을 구축하는 방법을 제안한다.
Resumen
이 논문은 대용량 언어 모델(LLM)을 활용하여 텍스트 기반 순차적 추천 문제를 해결하는 방법을 제안한다.
먼저 사용자의 과거 행동 데이터를 텍스트 형태로 변환하고, 이를 여러 블록으로 분할한다. 그 후 LLM 기반 요약기를 활용하여 각 블록의 요약을 생성하고, 이를 종합하여 사용자 선호도 요약을 도출한다.
이 사용자 선호도 요약, 최근 사용자 행동, 추천 대상 아이템 정보를 LLM 기반 추천 모델의 입력으로 사용하여 추천 결과를 생성한다.
이 과정에서 계층적 요약과 순환 요약이라는 두 가지 독특한 요약 기법을 제안한다.
또한 Supervised Fine-Tuning(SFT) 및 Low-Rank Adaptation(LoRA)을 활용하여 추천 모델을 효율적으로 학습한다.
실험 결과, 제안 방법이 다양한 기존 방법들을 뛰어넘는 성능을 보였다.
Estadísticas
사용자 행동 데이터 길이가 길수록 LLM 모델의 계산 자원 소모가 크게 증가한다.
사용자의 최근 행동 정보를 3개까지 활용하는 것이 가장 좋은 성능을 보였다.
Citas
"Recent advances in Large Language Models (LLMs) have been changing the paradigm of Recommender Systems (RS)."
"To this end, in this paper, we design a novel framework for harnessing Large Language Models for Text-Rich Sequential Recommendation (LLM-TRSR)."
"Specifically, we first propose to segment the user historical behaviors and subsequently employ an LLM-based summarizer for summarizing these user behavior blocks."