本研究は、LLMベースの会話型エージェントを使用するユーザーの開示行動と、プライバシーリスクの認識および管理方法を調査した。
まず、実際のChatGPTの会話履歴を分析し、ユーザーが様々な種類の個人を特定できる情報(PII)を開示していることを明らかにした。ユーザー自身の情報だけでなく、他者の情報も共有されており、相互依存的なプライバシー問題が存在することが示された。
次に、19人のChatGPTユーザーへのインタビューを行い、以下の知見を得た:
ユーザーは、エージェントの機能性と利便性を重視する一方で、プライバシーリスクについても意識しており、状況に応じて様々な対策を講じている。しかし、誤った心モデルと、プライバシー設定の使いづらさにより、適切な対応が困難になっている。
ユーザーの多くは、自身の情報がすでに他のプラットフォームで共有されていると考えており、LLMベースのエージェントへの追加的な開示リスクを低く見積もっている。
人間らしい対話が、ユーザーの機密情報開示を助長する可能性がある。
ユーザーは、自身の情報だけでなく、他者の情報を不適切に開示する可能性がある。これは相互依存的なプライバシー問題を引き起こす。
本研究の知見は、LLMベースのシステムのプライバシー設計を改善し、ユーザーの意識向上と実際の制御力を高めるための重要な示唆を提供する。しかし、ユーザーの誤った心モデルの修正や、人間らしい対話が及ぼす影響など、設計的な介入だけでは解決できない課題も明らかになった。
他の言語に翻訳
原文コンテンツから
arxiv.org
深掘り質問