แนวคิดหลัก
Transformer 기반 순차적 추천 모델의 자기 주의력 메커니즘은 관련성이 낮은 아이템에 큰 주의력을 할당하는 경우가 많아 정확한 다음 아이템 예측에 어려움을 겪는다. 이를 해결하기 위해 공간 보정기와 적대적 보정기를 도입하여 주의력 가중치를 효과적으로 보정함으로써 추천 성능을 향상시킨다.
บทคัดย่อ
이 논문은 Transformer 기반 순차적 추천 모델의 자기 주의력 메커니즘이 관련성이 낮은 아이템에 큰 주의력을 할당하는 문제를 해결하기 위해 제안된 AC-TSR 프레임워크를 소개한다.
-
자기 주의력 메커니즘이 관련성이 낮은 아이템에 큰 주의력을 할당하는 문제를 실험적으로 확인하였다. 이는 위치 인코딩의 한계와 노이즈가 있는 입력 데이터로 인한 것으로 분석되었다.
-
AC-TSR 프레임워크는 공간 보정기와 적대적 보정기를 도입하여 이 문제를 해결한다. 공간 보정기는 아이템 간 순서와 거리 정보를 활용하여 주의력 가중치를 보정하고, 적대적 보정기는 각 아이템의 기여도를 기반으로 주의력 가중치를 재분배한다.
-
4개의 벤치마크 데이터셋에서 AC-TSR이 기존 Transformer 기반 순차적 추천 모델들을 유의미하게 능가하는 성능을 보였다. 또한 공간 보정기와 적대적 보정기를 기존 모델에 플러그인 형태로 적용할 수 있음을 확인하였다.
-
각 보정기의 영향과 하이퍼파라미터 효과에 대한 분석을 통해 AC-TSR의 성능 향상 원인을 규명하였다.
สถิติ
관련성이 낮은 아이템에 큰 주의력을 할당하는 경우에도 모델 성능이 크게 감소하지 않거나 오히려 향상되는 경우가 있다.
기존 Transformer 기반 순차적 추천 모델의 주의력 가중치 분포가 실제 아이템 순서와 거리 정보를 잘 반영하지 못하는 경우가 많다.
คำพูด
"Transformer-based sequential recommendation (SR) has been booming in recent years, with the self-attention mechanism as its key component. Self-attention has been widely believed to be able to effectively select those informative and relevant items from a sequence of interacted items for next-item prediction via learning larger attention weights for these items. However, this may not always be true in reality."
"Our empirical analysis of some representative Transformer-based SR models reveals that it is not uncommon for large attention weights to be assigned to less relevant items, which can result in inaccurate recommendations."