Core Concepts
BAHE 방법은 사용자 행동 표현 추출과 행동 간 상호작용 학습을 분리하여 LLM 기반 CTR 모델의 효율성을 크게 향상시킨다.
Abstract
이 논문은 대규모 언어 모델(LLM)을 활용한 클릭률(CTR) 예측 모델의 효율성 문제를 해결하기 위해 Behavior Aggregated Hierarchical Encoding (BAHE) 방법을 제안한다.
BAHE의 주요 내용은 다음과 같다:
원자적 행동 인코딩(ABE): LLM의 사전 학습된 낮은 층을 활용하여 사용자 행동의 의미를 이해하고 중복 인코딩을 방지한다. 이를 통해 토큰 수준에서 행동 수준으로 인코딩을 변환하여 인코딩 길이를 크게 줄인다.
행동 집계(BA): ABE에서 얻은 원자적 행동 표현을 활용하여 LLM의 상위 층에서 사용자 행동 간 상호작용을 모델링한다. 이를 통해 사용자 선호도를 학습하고 종합적인 사용자 표현을 생성한다.
병렬 특징 처리(FP): 사용자 행동 시퀀스를 병렬적으로 처리하여 LLM의 주의력 계산 복잡도 증가를 방지한다.
실험 결과, BAHE는 기존 LLM 기반 CTR 모델 대비 5배 이상의 학습 시간 및 메모리 사용량 감소를 달성하였으며, 실제 산업 환경에 성공적으로 적용되어 일일 모델 업데이트를 가능하게 하였다. 이를 통해 LLM의 실용적인 CTR 예측 활용을 가능하게 하였다.
Stats
사용자 행동 시퀀스의 평균 길이는 50개 행동, 각 행동은 평균 5개 토큰으로 구성된다.
전체 원자적 행동의 수는 1,000만 개이다.