Core Concepts
대규모 언어 모델(LLM)에서 두 번째 순서 정보(Hessian)를 활용한 효과적인 언학습 알고리즘을 제안한다. 이를 통해 기존 방식들의 한계를 극복하고 언학습의 효과성과 모델 유틸리티를 동시에 보장할 수 있다.
Abstract
이 논문은 대규모 언어 모델(LLM)에서 발생할 수 있는 개인정보 유출 및 저작권 침해 문제를 해결하기 위한 언학습 기법을 제안한다.
기존 언학습 방식의 한계:
데이터 전처리나 모델 구조 변경 등의 오버헤드가 발생하거나 언학습 효과와 모델 유틸리티 간의 균형을 유지하기 어려움
제안 방식:
두 번째 순서 정보(Hessian)를 활용한 Fisher Removal과 Fisher Forgetting 알고리즘 제안
데이터/모델 독립적이며 언학습 효과와 유틸리티 보장이 우수
실험 결과:
4개 NLP 데이터셋과 2개 실제 데이터셋에 대한 평가 수행
기존 방식 대비 언학습 효과와 모델 유틸리티 측면에서 우수한 성능 확인
언학습과 DP-SGD의 관계 분석을 통해 DP-SGD만으로는 최적의 트레이드오프를 보장하지 못함을 발견
한계 및 향후 과제:
Hessian 근사 계산의 비용이 여전히 높은 편
더 효율적인 Hessian 근사 기법 및 언학습 알고리즘 개발이 필요
Stats
대규모 언어 모델은 수백만 개의 매개변수를 가지고 있어 Hessian 계산이 매우 비싼 작업이다.
제안한 inverse empirical Fisher 추정 기법을 통해 Hessian을 효율적으로 근사할 수 있다.
Quotes
"To ensure data safety, data privacy regulations such as GDPR [22] have granted users the right to revoke the use of their data by commercial services. However, from the perspective of service providers, making a trained model forget about the knowledge of specific training samples can be much more challenging than just deleting the user data from the database."
"Retraining the model from scratch ensures the erasure of target samples, while it is extremely expensive to practice for LLMs. It raises the question of how LLM practitioners can unlearn the models with much less time and computational resources."