Temel Kavramlar
본 논문에서는 기존 협업 필터링 모델의 강점과 대규모 언어 모델(LLM)의 장점을 결합하여 멀티태스크 추천 시스템의 성능을 향상시키는 새로운 프레임워크인 CKF(Collaborative Knowledge Fusion)를 제안합니다.
Özet
협업 지식 융합: LLM을 통한 멀티태스크 추천 시스템을 위한 새로운 접근 방식
본 연구에서는 대규모 언어 모델(LLM)을 활용하여 멀티태스크 추천 시스템의 성능을 향상시키는 것을 목표로 합니다. 특히 기존 LLM 기반 추천 시스템에서 간과되었던 기존 협업 필터링 모델의 중요성을 강조하며, 이를 LLM과 효과적으로 통합하는 방법을 제시합니다.
본 논문에서 제안하는 CKF(Collaborative Knowledge Fusion) 프레임워크는 다음 세 가지 모듈로 구성됩니다.
협업 지식 추출 모듈 (CKEM): 기존의 협업 필터링 모델(예: MF, DIN)을 사용하여 사용자 및 아이템 임베딩을 추출합니다.
지식 융합 모듈 (KFM): 메타 네트워크를 통해 개인화된 매핑 함수를 생성하여 CKEM에서 추출한 임베딩을 LLM의 텍스트 의미 공간으로 투영합니다. 이를 통해 협업 지식을 LLM에 효과적으로 전달합니다.
멀티태스크 튜닝 모듈 (MTM): LLM을 사용하여 다양한 추천 작업(예: 평점 예측, 클릭률 예측, Top-K 추천, 설명 가능한 추천)에 대한 결과를 생성합니다. 특히, 작업 공유 및 작업별 정보를 명확하게 분리하는 새로운 파라미터 효율적인 미조정 전략인 'Multi-Lora'를 개발하여 멀티태스크 성능을 향상시킵니다.