核心概念
雖然語言模型代理可以提高生產力,但它們也可能無意中洩露隱私,而人類往往過度信任這些代理,缺乏足夠的隱私意識來有效監督它們。
摘要
研究論文摘要
書目信息
Zhiping Zhang, Bingcan Guo, and Tianshi Li. 2024. Can Humans Oversee Agents to Prevent Privacy Leakage? A Study on Privacy Awareness, Preferences, and Trust in Language Model Agents. 1, 1 (November 2024), 35 pages. https://doi.org/10.1145/nnnnnnn.nnnnnnn
研究目標
本研究旨在探討人類是否有能力監督語言模型代理,以防止其在執行任務時無意中洩露隱私,並探討人們的隱私意識、偏好和對 AI 的信任在其中的作用。
研究方法
研究人員進行了一項基於任務的線上調查,共有 300 名參與者。參與者被要求完成一項非同步人際溝通任務,例如起草電子郵件回覆。然後,他們被介紹給一個虛構的語言模型代理,並被要求在他們自己的回覆和代理生成的回覆之間做出選擇,代理生成的回覆包含違反情境隱私規範的敏感信息。之後,參與者被告知情境中的隱私規範,並被要求評估洩露敏感信息的危害程度。
主要發現
- 參與者在自己的草稿中包含的隱私洩露信息較少,而許多人選擇了由語言模型代理撰寫的回覆。
- 48.0% 的參與者更喜歡語言模型代理的回覆,或者認為兩種回覆都同樣好,儘管代理的回覆包含更多隱私洩露信息。
- 大多數參與者似乎沒有意識到代理行為中的隱私洩露,表現出對語言模型代理的過度信任。
主要結論
- 僅僅讓用戶控制語言模型代理的最終行動不足以防止隱私風險。
- 人們在監督處理複雜、特定領域任務的系統方面存在已知問題,此外,在監督涉及細微社會規範的日常任務方面也存在風險。
研究意義
本研究揭示了語言模型代理在隱私保護方面的挑戰,並強調了提高用戶隱私意識和設計能夠實現隱私保護交互的代理系統的重要性。
局限性和未來研究方向
- 本研究的大多數參與者沒有使用語言模型代理的經驗,這可能會影響結果,因為它可能無法代表語言模型代理達到臨界規模採用時的狀態。
- 起草任務的設計是為了在沒有語言模型代理的情況下為用戶的自然決策建立一個參考點,但这可能引發額外的反思和參與,這可能有利於提高意識。
- 本研究選擇了六種情境,涵蓋了現實生活中語言模型代理應用中存在隱私洩露風險的相對廣泛的範圍,但情境背景可能會影響參與者的反應。
統計資料
48.0% 的參與者更喜歡語言模型代理的回覆,或者認為兩種回覆都同樣好。
參與者在自己起草的回覆中平均洩露了 15.7% 被認為有害的信息。
使用語言模型代理後,這一比例增加到 55.0%。
引述
“如果我的聲譽岌岌可危,我希望在以我的名義在網上發布之前對帖子進行事實核查和校對。”
“我認為,任何人都會同意,告訴艾米麗關於邁克爾私生活和面試準備的所有這些細節是不公平的;這侵犯了他的信任和隱私,坦率地說,這樣做是不專業的。”
“它可以從我的個人數據庫(谷歌日曆等)中提取信息。為了我的隱私和安全,這似乎並不理想。”