Der Artikel analysiert das Problem der Segmentierungsambiguität, das bei der Verwendung von Sprachmodellen auf Basis von Subwörtern in provably sicherer neuronaler linguistischer Steganographie auftritt. Bisherige Lösungen, die Tokens mit Präfixbeziehungen entfernen, verändern die Wahrscheinlichkeitsverteilung und sind daher für provably sichere Steganographie ungeeignet.
Die vorgeschlagene Methode SyncPool gruppiert Tokens mit Präfixbeziehungen in Ambiguitätspools und verwendet einen gemeinsamen kryptographisch sicheren Zufallszahlengenerator (CSPRNG), um synchron aus diesen Pools zu sampeln. Dadurch wird Segmentierungsambiguität beseitigt, ohne die Wahrscheinlichkeitsverteilung zu verändern.
Die Autoren liefern theoretische Beweise für die Sicherheit von SyncPool und zeigen in Experimenten, dass die Methode die Zuverlässigkeit und Sicherheit von provably sicherer neuronaler linguistischer Steganographie deutlich verbessern kann.
Vers une autre langue
à partir du contenu source
arxiv.org
Questions plus approfondies