이 논문은 대규모 언어 모델(LLM)의 지적 재산권 보호를 위한 지문 삽입 기술을 제안합니다.
모델 발행자는 비밀 키와 공개 지문 해독 문자열을 지정합니다. 이를 모델에 backdoor로 삽입하여 특정 입력 시 특정 출력을 생성하도록 합니다.
11개의 인기 있는 LLM에 대해 실험한 결과, 제안 방식은 모델 성능에 영향을 주지 않으면서도 지문을 효과적으로 삽입하고 대규모 fine-tuning에도 지문이 유지되는 것으로 나타났습니다.
또한 이 방식은 발행자의 과도한 소유권 주장을 방지하고, 지문 추측 및 매개변수 효율적 학습에 강인하며, MIT 라이선스와 유사한 다단계 지문 삽입을 지원합니다.
To Another Language
from source content
arxiv.org
Key Insights Distilled From
by Jiashu Xu,Fe... at arxiv.org 04-04-2024
https://arxiv.org/pdf/2401.12255.pdfDeeper Inquiries