Keskeiset käsitteet
대규모 언어 모델 기반 추천 시스템에서 개인 데이터 제거를 위한 정확하고 효율적인 언러닝 기법을 제안한다.
Tiivistelmä
이 연구는 대규모 언어 모델 기반 추천 시스템(LLMRec)에서 정확하고 효율적인 언러닝 기법을 제안한다.
LLMRec은 대규모 언어 모델(LLM)을 사용자 데이터로 미세 조정하여 추천 성능을 높이지만, 개인 데이터 유출 위험이 있다.
기존 언러닝 기법은 LLMRec의 특성을 고려하지 않아 비효율적이거나 불완전한 데이터 제거가 발생한다.
이에 본 연구는 Adapter Partition and Aggregation(APA) 프레임워크를 제안한다:
데이터를 의미 기반으로 균형있게 분할하여 개별 어댑터를 학습
개별 어댑터의 가중치를 샘플 적응적으로 통합하여 단일 어댑터 생성
불필요한 데이터 제거 시 해당 어댑터만 재학습하여 효율성 확보
실험 결과, APA는 기존 방식 대비 추천 성능 저하를 최소화하면서 언러닝 효율성을 크게 향상시킨다.
Tilastot
제안 방식 APA는 기존 방식 대비 영화 데이터셋에서 언러닝 시간을 3.96배 단축했다.
제안 방식 APA는 단일 모델 대비 추천 성능 저하가 최대 0.0108에 불과했다.
Lainaukset
"LLMRec 언러닝은 개인 데이터 제거를 위해 필수적이지만, 기존 방식은 비효율적이거나 불완전한 데이터 제거가 발생한다."
"APA는 데이터 분할과 어댑터 통합을 통해 정확하고 효율적인 언러닝을 달성한다."