核心概念
Adanonymizer 是一種協作式匿名化技術,允許使用者在與大型語言模型互動時,透過導航隱私-效用權衡曲線,以互動方式平衡隱私保護和模型輸出效能。
要約
書目資訊
Zhang, S., Yi, X., Xing, H., Ye, L., Hu, Y., & Li, H. (2024). Adanonymizer: Interactively Navigating and Balancing the Duality of Privacy and Output Performance in Human-LLM Interaction. 1, 1 (October 2024), 34 pages. https://doi.org/10.1145/nnnnnnn.nnnnnnn
研究目標
本研究旨在探討如何在人類與大型語言模型的互動中,透過協作互動來平衡隱私保護和模型輸出效能。
方法
- 問卷調查(N=221):評估使用者在與大型語言模型互動時,對於輸入個人資訊的隱私風險認知。
- 開發 Adanonymizer:一種協作式匿名化技術,允許使用者透過導航隱私-效用權衡曲線,以互動方式平衡隱私保護和模型輸出效能。
- 使用性評估研究(N=36):比較 Adanonymizer 與其他匿名化技術(包括基於差分隱私的技術)在修改時間、使用者感知的模型輸出效能和整體使用者偏好方面的表現。
主要發現
- 使用者在與大型語言模型互動時,經常會洩露敏感資訊,儘管他們意識到隱私風險(隱私悖論)。
- 隱私風險與刪除私人資訊後感知到的模型輸出效能下降之間沒有顯著相關性。
- Adanonymizer 在修改時間、使用者感知的模型輸出效能和整體使用者偏好方面優於其他匿名化技術。
主要結論
Adanonymizer 是一種有效的工具,可以幫助使用者在與大型語言模型互動時平衡隱私保護和模型輸出效能。其互動式設計和視覺化介面使用戶能夠輕鬆理解和控制其隱私設定。
意義
本研究為設計以人為本的隱私保護機制提供了見解,這些機制可以讓使用者在與大型語言模型互動時,在隱私和效用之間做出明智的選擇。
局限性和未來研究
- 本研究的樣本量相對較小,未來研究可以納入更多參與者,以提高結果的普遍性。
- 未來研究可以探討其他互動式設計方法,以進一步改善使用者體驗。
統計
221 位參與者參與了問卷調查,評估使用者在與大型語言模型互動時,對於輸入個人資訊的隱私風險認知。
36 位參與者參與了使用性評估研究,比較 Adanonymizer 與其他匿名化技術的表現。
Adanonymizer 的修改時間顯著低於其他技術(Adanonymizer:M=11.5 秒,標準差=15.2 秒;差分隱私基線:M=101.8 秒,標準差=72.8 秒)。
引用
「使用者在與大型語言模型互動時,經常會洩露敏感資訊,儘管他們意識到隱私風險,這反映了所謂的『隱私悖論』。」
「Adanonymizer 是一種協作式匿名化技術,允許使用者透過導航隱私-效用權衡曲線,以互動方式平衡隱私保護和模型輸出效能。」