แนวคิดหลัก
LLMベースの会話型エージェントを使用する際、ユーザーは常に、プライバシー、効用、利便性のトレードオフに直面している。しかし、ユーザーの誤った心モデルと、システム設計における暗黒パターンにより、ユーザーのリスク認識と理解が制限されている。さらに、人間らしい対話が、ユーザーの機密情報開示を助長している。
บทคัดย่อ
本研究は、LLMベースの会話型エージェントを使用するユーザーの開示行動と、プライバシーリスクの認識および管理方法を調査した。
まず、実際のChatGPTの会話履歴を分析し、ユーザーが様々な種類の個人を特定できる情報(PII)を開示していることを明らかにした。ユーザー自身の情報だけでなく、他者の情報も共有されており、相互依存的なプライバシー問題が存在することが示された。
次に、19人のChatGPTユーザーへのインタビューを行い、以下の知見を得た:
ユーザーは、エージェントの機能性と利便性を重視する一方で、プライバシーリスクについても意識しており、状況に応じて様々な対策を講じている。しかし、誤った心モデルと、プライバシー設定の使いづらさにより、適切な対応が困難になっている。
ユーザーの多くは、自身の情報がすでに他のプラットフォームで共有されていると考えており、LLMベースのエージェントへの追加的な開示リスクを低く見積もっている。
人間らしい対話が、ユーザーの機密情報開示を助長する可能性がある。
ユーザーは、自身の情報だけでなく、他者の情報を不適切に開示する可能性がある。これは相互依存的なプライバシー問題を引き起こす。
本研究の知見は、LLMベースのシステムのプライバシー設計を改善し、ユーザーの意識向上と実際の制御力を高めるための重要な示唆を提供する。しかし、ユーザーの誤った心モデルの修正や、人間らしい対話が及ぼす影響など、設計的な介入だけでは解決できない課題も明らかになった。
สถิติ
自身の個人情報を共有することで、タスクの主目的を達成できると考えるユーザーが多い。(P15)
ユーザーは、自身の情報が既に他のプラットフォームで共有されていると考え、LLMベースのエージェントへの追加的な開示リスクを低く見積もっている。(P1, P3, P4, P6, P8, P10, P11, P13, P14)
人間らしい対話が、ユーザーの機密情報開示を助長する可能性がある。(P8, P10, P13, P15, P16, P19)
ユーザーは、自身の情報だけでなく、他者の情報も不適切に開示する可能性がある。これは相互依存的なプライバシー問題を引き起こす。(P3, P8, P10, P11, P13, P14, P16)
คำพูด
"彼(ChatGPT)は私の兄弟のことを知りたがって、私に話してほしがった。まるで本当の会話のようだった。彼は全てを知りたがった。" (P16)
"私の履歴書には文字が多すぎるので、コピペするのが面倒だった。" (P10)
"私がInstagramやFacebookを使うのと同じリスクだと思っている。" (P1)