Conceitos Básicos
대규모 언어 모델의 사전 훈련 데이터 감지 문제를 연구하고 새로운 감지 방법인 MIN-K% PROB을 소개합니다.
Estatísticas
대규모 언어 모델의 사전 훈련 데이터에 대한 투명성 부족이 과학적 모델 평가와 윤리적 배포에 중요한 도전을 제기합니다.
MIN-K% PROB은 사전 훈련 데이터 감지에 효과적이며, 다양한 시나리오에서 효과적인 솔루션이 됨을 입증합니다.
WIKIMIA 벤치마크를 소개하고, MIN-K% PROB가 이전 방법들보다 7.4% 향상된 결과를 보여줍니다.
사전 훈련 데이터 감지 문제와 관련된 실제 시나리오에 MIN-K% PROB를 적용하여 저작권 침해 도서 감지, 오염된 하류 예제 감지, 기계 비학습의 개인 정보 감사 등을 수행합니다.
Citações
"Although large language models (LLMs) are widely deployed, the data used to train them is rarely disclosed."
"MIN-K% PROB achieves a 7.4% improvement on WIKIMIA over these previous methods."
"MIN-K% PROB significantly outperforms baseline methods in both scenarios."