本論文は、大規模言語モデル(LLM)を用いた言語ステガノグラフィー手法「LLsM」を提案している。
LLsMは以下の特徴を持つ:
オープンソースのLLMを用いて、トークン生成プロセスを「ステゴ生成器」に再構築し、秘密情報に基づいてテキストを生成できるようにする。
クローズドソースのLLMに対しては、LLsM-cアーキテクチャを提案する。これはディスコースを隠蔽的にエンコードし、秘密情報に基づいて高品質なプロンプトを生成する。
言語モデルの微調整時に、ディスコース情報を考慮することで、生成されるステゴのセマンティックな隠蔽性を高める。
レンジコーディングを用いて候補プールをエンコードし、秘密情報に基づいて次のトークンを決定する。これにより、ステゴの知覚的および統計的な隠蔽性を向上させる。
高品質な自然言語カバーテキストを構築し、各手法の評価に使用する。これにより、より正確な比較が可能になる。
実験の結果、LLsMは様々な隠蔽性と耐ステガノグラフィー解析の指標において、従来手法を大幅に上回ることが示された。特に、ディスコース適合性とテキスト品質の向上が顕著である。
Naar een andere taal
vanuit de broninhoud
arxiv.org
Belangrijkste Inzichten Gedestilleerd Uit
by Yihao Wang,R... om arxiv.org 04-09-2024
https://arxiv.org/pdf/2401.15656.pdfDiepere vragen