核心概念
由人工標註的數據訓練出來的情緒推論模型,會反映出標註者本身的政治偏見,進而影響模型預測結果的準確性。
文獻資訊: Plisiecki, H., Lenartowicz, P., Flakus, M., & Pokropek, A. (2023). High Risk of Political Bias in Black Box Emotion Inference Models.
研究目標: 本研究旨在探討用於情緒分析的機器學習模型中是否存在政治偏見,並分析其成因及影響。
研究方法: 研究人員使用一個波蘭語情緒分析模型作為研究對象,分析其對不同政治人物姓名和相關語句的情緒效價預測結果。為找出偏見來源,研究人員從訓練數據集中移除提及這些政治人物的文本,並訓練一個新的模型進行比較分析。此外,研究人員還對標註團隊進行政治傾向問卷調查,以探討標註者的政治立場是否與模型的偏見相關。
主要發現: 研究結果顯示,情緒分析模型的預測結果存在顯著的政治偏見,且該偏見與標註者的政治傾向高度相關。移除訓練數據集中提及政治人物的文本後,模型的偏見顯著降低,但並未完全消除。
主要結論: 本研究證實了人工標註數據會將標註者的政治偏見引入情緒分析模型,進而影響模型預測結果的準確性。研究人員建議應謹慎使用此類模型進行社會科學研究,並提出使用基於詞典的系統作為意識形態中立的替代方案。
研究意義: 本研究揭示了情緒分析模型中政治偏見的風險,強調了審查和調整方法的必要性,以確保機器學習在學術和應用領域的可靠性。
研究限制與未來方向: 本研究僅關注單一情緒分析模型和特定數據集,未來研究應擴展至更多樣化的數據集和模型,並進一步探討不同類型偏見之間的交互作用。
統計資料
在原始模型中,引入帶有政治傾向的姓氏會改變單一文本片段的情緒分數,在 1-100 的量表上最多可達 6 分,或以 Cohen's d 表示則為 0.5。
在比較不同政黨的迴歸分析中,原始模型對不同政治團體的差異(與合併標準差相比)為 5.47 比 3.53(Cohen's d = 1.55),而修改後的模型則為 2.30 比 1.23(Cohen's d = 1.87)。
針對原始姓名和中性句子進行的情緒效價預測差異,高於政治性句子。
迴歸模型對這三種情況(原始姓名、中性句子和政治性句子)的變異解釋程度相似(分別為 0.665、0.52 和 0.662)。
模型的偏見與大眾對政治人物的信任度無關。
包含政治人物姓名的訓練數據集中文本的平均情緒效價,無法解釋這種偏見。
標註者間的組內相關係數 (ICC(1)) 為 0.6,表示標註者之間的一致性有限。
修改後的模型(在移除包含政治人物姓名的文本後進行訓練)顯示出的偏見明顯低於原始模型。
訓練數據集中包含政治人物姓名的文本總數為 459 個,每個政治人物的文本數量介於 0 到 71 個之間,中位數為 8.5 個。
修剪後的文本佔訓練數據集大小的比例不到 6%。