核心概念
本文提出了一種名為 WAM 的新型深度學習圖像浮水印方法,該方法可以將訊息嵌入圖像的特定區域,並實現對這些區域的精確定位和訊息提取,同時保持對傳統圖像編輯技術的魯棒性。
研究目標:
本研究旨在解決現有圖像浮水印方法在處理小面積浮水印區域時的局限性,並提出一種能夠對圖像進行本地化浮水印嵌入和提取的新方法。
方法:
研究人員開發了一種名為 WAM(Watermark Anything Model)的深度學習模型,該模型包含嵌入器和提取器兩個部分。嵌入器將訊息嵌入到圖像的特定區域,而提取器則可以識別這些區域並提取嵌入的訊息。
主要發現:
WAM 在低解析度和高解析度圖像上均表現出與現有最佳方法相當的不可感知性和魯棒性。
WAM 能夠精確定位拼接圖像中的浮水印區域,並從多個小區域(不超過圖像表面的 10%)中提取不同的 32 位元訊息,且誤碼率低於 1 位元。
WAM 可以通過調整參數來平衡不可感知性和魯棒性,並能處理圖像中的多個浮水印。
結論:
WAM 是一種有效的本地化圖像浮水印方法,它克服了現有方法的局限性,並為圖像版權保護、AI 生成內容識別和篡改定位等應用提供了新的可能性。
意義:
本研究對圖像浮水印領域做出了重要貢獻,它提出了一種新的基於深度學習的本地化浮水印方法,該方法在性能和功能上均優於現有方法。
局限性和未來研究方向:
WAM 的訊息容量目前有限,未來研究可以探索提高其容量的方法。
儘管 WAM 使用了 JND 加權來提高不可感知性,但浮水印在某些區域仍然可見,未來研究可以探索更先進的感知模型來進一步提高不可感知性。
統計資料
WAM 能夠從僅佔圖像 10% 的區域中提取 32 位元訊息,且誤碼率低於 1 位元。
在包含多個浮水印的圖像中,即使經過水平翻轉和對比度調整等操作,WAM 仍能達到 85% 的 mIoU。
在相同的條件下,WAM 對 160 位元訊息(分佈在 5 個浮水印中)的平均位元準確率超過 95%。