핵심 개념
MARM이라는 새로운 캐시 기반 추천 시스템은 기존 방식보다 적은 계산량으로 사용자의 장기적인 행동을 모델링하여 추천 시스템의 효율성을 크게 향상시킵니다.
초록
MARM: 캐시 증강을 통한 추천 시스템의 미래 향상
이 연구 논문에서는 추천 시스템, 특히 사용자의 장기적인 행동을 모델링하는 데 있어 계산 복잡성이라는 중요한 문제를 다룹니다. 저자들은 메모리 캐시를 활용하여 추론 속도를 높이는 새로운 다층 추천 모델인 MARM(Memory Augmented Recommendation Model)을 제안합니다.
배경
전통적인 추천 시스템은 종종 복잡한 모델을 사용하여 사용자의 선호도를 정확하게 파악하지만, 이러한 모델은 특히 대규모 데이터 세트에서 계산 비용이 많이 듭니다. 이러한 문제를 해결하기 위해 저자들은 캐싱 기술을 활용하여 복잡한 모델의 부분적인 계산 결과를 저장하여 단일 모델링의 복잡성을 O(n² * d)에서 O(n * d)로 줄이는 MARM을 제안합니다.
MARM 프레임워크
MARM 프레임워크는 선형 리소스 소비로 단일 계층 타겟 어텐션에서 다층으로 시퀀스 모델링을 확장할 수 있도록 하여 추천 모델의 계산 병목 현상을 크게 해소하고 사용자의 평생 이력 모델링을 가능하게 합니다. MARM은 캐시 크기와 추천 성능 간의 비례 관계를 확인하여 캐시 크기가 클수록 모델 성능이 향상됨을 보여줍니다.
MARM의 장점
MARM은 미세 순위, 거친 순위 및 리콜을 포함한 기존 추천 모델과 원활하게 통합될 수 있습니다. 또한 MARM은 사용자의 장기적인 행동을 효과적으로 모델링하여 추천 정확도와 사용자 경험을 향상시킵니다.
실험 및 결과
저자들은 Kuaishou의 해외 운영에서 MARM의 효과를 평가하기 위해 광범위한 실험을 수행했습니다. 결과는 MARM이 사용자당 평균 앱 시청 시간을 2.079% 증가시켜 추천 시스템의 효율성과 실용성을 입증했습니다.
결론
MARM은 평생 시퀀스 모델링 분야에서 다차원 스케일링을 달성한 최초의 추천 모델입니다. 캐싱 기술을 활용함으로써 MARM은 계산 비용을 줄이고 추천 정확도를 높여 추천 시스템 분야에서 상당한 발전을 이루었습니다.
통계
Kuaishou의 국제 비즈니스(Kwai)에서 약 3천만 명의 사용자와 6천 2백만 개의 짧은 동영상을 포함하는 짧은 동영상 시나리오에서 실험을 수행했습니다.
각 사용자는 하루 평균 133개의 짧은 동영상을 시청합니다.
과거 6개월간의 로그 데이터를 수집하여 스트리밍 교육 방식으로 순진한 MARM 설정(SIM 없음)으로 공통 다중 작업 학습을 수행했습니다.
MARM의 attention depth L을 4, sequence length n을 6000으로 설정했을 때 MARM에서 사용하는 저장 공간은 60TB입니다.
MARM을 추가하면 저장 공간과 계산 오버헤드가 증가하지만, 직접 다층 self-attention 방식의 약 1/8 수준입니다.
Kwai에서 MARM을 적용한 결과 사용자당 평균 시청 시간이 2.079% 증가했습니다.
세부적으로는 Retrieval 단계에서 평균 시청 시간 +0.489%, 총 시청 시간 +0.456%, Cascading 단계에서 평균 시청 시간 +0.276%, Ranking 단계에서 평균 시청 시간 +1.314%, 시청 시간 +1.370% 증가했습니다.
인용구
"For a RecSys model, compared to model parameters, the computational complexity FLOPs is the more expensive factor that requires careful control."
"Our MARM extends the single-layer attention-based sequences interests modeling module to a multiple-layer setting with minor inference complexity FLOPs cost."
"Comprehensive experiment results show that our MARM brings offline 0.43% GAUC improvements and online 2.079% play-time per user gains."