本文提出了一種名為 CLMIA 的新型成員推斷攻擊方法,該方法利用非監督式對比學習來訓練攻擊模型,從而更有效地判斷數據樣本是否被用於訓練機器學習模型,特別是在標記身份信息數據有限的現實情況下。
雖然過往研究認為成員推斷攻擊 (MIA) 對大型語言模型 (LLM) 無效,但本研究證明,當攻擊目標擴大到文件或文件集時,現有的 MIA 方法便能成功。
OSLO 是一種新型的成員推斷攻擊,僅需單次查詢目標模型,並僅憑預測標籤,即可高精度地推斷出給定樣本是否屬於目標模型的訓練集。
本文提出了一種針對檢索增強生成模型的新型成員推斷攻擊方法,透過遮罩目標文件中特定詞彙並分析模型對遮罩詞彙的預測準確率來判斷目標文件是否存在於模型的知識庫中。
本文提出了一種名為 USMID 的新型成員推斷檢測器,它僅使用文本數據即可檢測說話者是否在對比式語言音頻預訓練 (CLAP) 模型的訓練數據集中,無需暴露音頻數據,有效保護了用戶隱私。
深度學習模型的成員推斷攻擊 (MIA) 漏洞與資料集屬性密切相關,特別是每個類別的樣本數量,呈現冪律關係。
本文提出了一種新的基於自我比較的成員推斷攻擊方法(SMI),用於判斷一個數據集是否被用於訓練大型語言模型(LLM)和視覺語言模型(VLM)。
現階段針對大型語言模型的成員推斷攻擊存在嚴重缺陷,其依賴的訓練數據收集方法存在偏差,導致結果不可靠,需要更加嚴謹的評估方法。