מושגי ליבה
대형 언어 모델을 활용하여 은밀한 정보를 포함하는 자연스러운 텍스트를 생성하는 기법을 제안한다.
תקציר
이 논문은 대형 언어 모델(LLM)을 활용한 언어 스테가노그래피 기법인 LLsM을 제안한다.
- LLsM은 오픈소스 LLM과 폐쇄소스 LLM에 대해 각각 다른 접근법을 제안한다.
- 오픈소스 LLM의 경우, LLM의 토큰 생성기를 "스테고 생성기"로 재구성하여 비밀 정보에 따라 텍스트를 생성할 수 있도록 한다.
- 폐쇄소스 LLM의 경우, 담화 정보를 은밀하게 인코딩하고 이를 바탕으로 담화가 포함된 자연스러운 텍스트를 생성한다.
- LLsM은 범위 코딩을 사용하여 후보 풀을 인코딩하고, 비밀 정보에 따라 구간을 선택함으로써 자연스러운 텍스트 분포를 모방하고 삽입률을 조절할 수 있다.
- 실험 결과, LLsM은 기존 언어 스테가노그래피 기법과 관련 작업 기준선을 크게 능가하는 성능을 보였다.
סטטיסטיקה
범위 코딩을 통해 후보 토큰 풀을 인코딩하고, 비밀 정보에 따라 구간을 선택하여 다음 토큰을 결정한다.
구간 길이와 비밀 정보 사이의 관계는 다음과 같다: length = pβ / Σpβ * (2α - 1), 여기서 β는 삽입률 조절 인자이다.
ציטוטים
"LLsM은 오픈소스 LLM과 폐쇄소스 LLM에 대해 각각 다른 접근법을 제안한다."
"LLsM은 범위 코딩을 사용하여 후보 풀을 인코딩하고, 비밀 정보에 따라 구간을 선택함으로써 자연스러운 텍스트 분포를 모방하고 삽입률을 조절할 수 있다."