核心概念
大型語言模型普遍存在左傾政治傾向,並可能在無意間影響選民的政治立場,導致選民在與模型互動後更傾向支持左派候選人。
這篇研究論文探討了大型語言模型(LLM)在 2024 年美國總統大選背景下所展現的政治傾向及其對選民的潛在影響。
研究目標
探討大型語言模型是否以及如何在與選民的互動中展現政治傾向。
檢驗這些互動是否會影響人類的投票選擇。
方法
模擬投票: 研究人員模擬了 18 個開放和封閉權重模型的總統選舉投票,每個模型運行 100 次,以觀察它們對拜登和川普的投票傾向。
政策相關問題回答分析: 研究人員分析了大型語言模型對 45 個政治議題相關問題的回答,這些問題涵蓋了川普和拜登政策的中立、正面和負面影響。
使用者實驗: 研究人員招募了 935 名美國註冊選民參與使用者實驗,讓他們與三個流行的大型語言模型(Claude-3、Llama-3 和 GPT-4)進行互動,並觀察互動前後他們對候選人的支持度變化。
主要發現
大型語言模型的投票模擬結果顯示,絕大多數模型都投票給了拜登,表明它們普遍存在左傾政治傾向。
在回答候選人政策相關問題時,大型語言模型傾向於拒絕回答拜登政策的負面影響和川普政策的正面影響,並對拜登的政策給予更長的、更積極的回應。
使用者實驗結果顯示,與大型語言模型互動後,參與者對拜登的支持度顯著增加,投票傾向從 0.7% 的差距擴大到 4.6% 的差距,即使大型語言模型沒有被要求說服使用者支持拜登。
與那些沒有與大型語言模型互動的控制組相比,與大型語言模型互動的參與者對拜登的支持度顯著增加。
主要結論
大型語言模型普遍存在左傾政治傾向,這一點在它們的輸出中得到了證實。
大型語言模型的政治傾向可能會在無意間影響選民,導致他們在與模型互動後更傾向於支持左派候選人。
指令微調模型比其基礎版本表現出更強烈的政治傾向,這表明目前的訓練過程可能會放大這種傾向。
研究意義
這項研究強調了大型語言模型在政治領域的潛在影響,並提出了關於其政治傾向的倫理問題。研究結果表明,有必要進一步研究如何減輕這些模型的政治偏見,以及它們對民主進程的潛在影響。
局限性和未來研究方向
生態效度: 該實驗是在模擬環境中進行的,這可能會導致自我報告偏差和觀察者偏差,因此研究結果在多大程度上可以推廣到現實世界的情況還有待觀察。
時間依賴性: 大型語言模型對選民的影響程度可能會隨著距離選舉日期的遠近而變化,需要進一步的研究來了解這種影響的時間動態。
提示敏感性: 大型語言模型對選民的影響可能會受到提示設計的影響,需要進一步研究不同提示設計如何影響這種影響。
普遍性: 需要進一步的研究來探討研究結果在不同政治環境和候選人中的普遍性。
統計資料
在模擬投票中,18 個大型語言模型中有 16 個始終選擇拜登。
平均而言,大型語言模型拒絕回答 2.1% 關於拜登政策中立面向的問題,而拒絕回答 3.9% 關於川普政策中立面向的問題。
當被問及政策的積極方面時,大型語言模型平均拒絕回答 15.8% 關於拜登政策的問題,而拒絕回答 21.0% 關於川普政策的問題。
對於政策的負面影響,大型語言模型對拜登的拒絕率為 35.6%,而對川普的拒絕率為 16.9%。
大型語言模型在描述拜登政策的積極方面時,平均回應長度為 170.484 個單詞,而描述川普政策的積極方面時,平均回應長度為 146.814 個單詞。
相反,大型語言模型在描述川普政策的負面方面時,提供了明顯更長的回應(164.825 個單詞),而描述拜登政策的負面方面時,回應長度為 143.871 個單詞。
當被問及拜登政策的中立方面時,大型語言模型回應的平均情感得分為 0.300,明顯高於川普的 0.117。
同樣,當被要求評論政策的積極方面時,拜登的平均情感得分為 0.375,而川普的平均情感得分僅為 0.235。
對於負面方面,大型語言模型對川普的回答呈現出更負面的情感得分,為 -0.120,而對拜登的回答為 -0.046。
與控制組相比,與大型語言模型互動顯著增加了參與者對拜登的支持度(Claude-3:係數 = 1.728,標準誤 = 0.698,p = 0.013;Llama-3:係數 = 1.524,標準誤 = 0.701,p = 0.030;GPT-4:係數 = 2.318,標準誤 = 0.701,p = 0.001)。
在與大型語言模型互動後,參與者對拜登的支持率平均從 50.8% 上升到 52.4%。
川普的支持者將他們對拜登的支持率平均從 8.1% 提高到 10.6%。
最初中立的參與者將他們對拜登的支持率從 50% 提高到 54.2%。
在最初支持川普的參與者中,有 4.2% 的人在與大型語言模型互動後不再支持川普。
在最初中立的參與者中,有 24.3% 的人在與大型語言模型互動後轉而支持拜登。