Der Artikel analysiert das Problem der Segmentierungsambiguität, das bei der Verwendung von Sprachmodellen auf Basis von Subwörtern in provably sicherer neuronaler linguistischer Steganographie auftritt. Bisherige Lösungen, die Tokens mit Präfixbeziehungen entfernen, verändern die Wahrscheinlichkeitsverteilung und sind daher für provably sichere Steganographie ungeeignet.
Die vorgeschlagene Methode SyncPool gruppiert Tokens mit Präfixbeziehungen in Ambiguitätspools und verwendet einen gemeinsamen kryptographisch sicheren Zufallszahlengenerator (CSPRNG), um synchron aus diesen Pools zu sampeln. Dadurch wird Segmentierungsambiguität beseitigt, ohne die Wahrscheinlichkeitsverteilung zu verändern.
Die Autoren liefern theoretische Beweise für die Sicherheit von SyncPool und zeigen in Experimenten, dass die Methode die Zuverlässigkeit und Sicherheit von provably sicherer neuronaler linguistischer Steganographie deutlich verbessern kann.
To Another Language
from source content
arxiv.org
Key Insights Distilled From
by Yuang Qi,Kej... at arxiv.org 03-27-2024
https://arxiv.org/pdf/2403.17524.pdfDeeper Inquiries