Der Artikel analysiert das Problem der Segmentierungsambiguität, das bei der Verwendung von Sprachmodellen auf Basis von Subwörtern in provably sicherer neuronaler linguistischer Steganographie auftritt. Bisherige Lösungen, die Tokens mit Präfixbeziehungen entfernen, verändern die Wahrscheinlichkeitsverteilung und sind daher für provably sichere Steganographie ungeeignet.
Die vorgeschlagene Methode SyncPool gruppiert Tokens mit Präfixbeziehungen in Ambiguitätspools und verwendet einen gemeinsamen kryptographisch sicheren Zufallszahlengenerator (CSPRNG), um synchron aus diesen Pools zu sampeln. Dadurch wird Segmentierungsambiguität beseitigt, ohne die Wahrscheinlichkeitsverteilung zu verändern.
Die Autoren liefern theoretische Beweise für die Sicherheit von SyncPool und zeigen in Experimenten, dass die Methode die Zuverlässigkeit und Sicherheit von provably sicherer neuronaler linguistischer Steganographie deutlich verbessern kann.
In un'altra lingua
dal contenuto originale
arxiv.org
Approfondimenti chiave tratti da
by Yuang Qi,Kej... alle arxiv.org 03-27-2024
https://arxiv.org/pdf/2403.17524.pdfDomande più approfondite