本研究提出了一種名為NAUF的新穎方法,通過名稱感知拒絕回答和對比數據增強,有效保護大型語言模型中個人隱私信息,同時維持模型在其他任務上的性能。
Adanonymizer 是一種協作式匿名化技術,允許使用者在與大型語言模型互動時,透過導航隱私-效用權衡曲線,以互動方式平衡隱私保護和模型輸出效能。