toplogo
登入

線上回應中的身分認同:感知與反制仇恨言論


核心概念
人們對線上仇恨言論的感知及其反制行為深受自身身分認同與仇恨言論目標之間匹配程度的影響。
摘要

文獻回顧

  • 線上仇恨言論的增加對個人和社會構成嚴重威脅。
  • 線上反制言論是應對線上仇恨言論的潛在解決方案,它指的是直接回應有害線上內容,目的是阻止發起者進一步參與此類行為。
  • 現有研究主要關注線上反制言論對仇恨言論者的影響或其在減少仇恨方面的整體有效性,而較少關注仇恨言論的主題與回應者身分之間的一致性如何影響對仇恨言論的感知和回應。

研究方法

  • 本研究使用包含 458 名參與者的調查,他們針對從涵蓋種族、性別、宗教、性取向或殘疾狀況等主題的 900 篇仇恨言論中隨機選擇的三篇線上仇恨言論帖子撰寫了反制言論。
  • 研究人員要求參與者回答後續問題,以了解他們對線上仇恨言論的看法和撰寫反制言論的經驗,例如他們的滿意度、自我感知的有效性、反制言論的難度以及他們對使用人工智慧協助他們撰寫反制言論的態度。
  • 研究人員使用混合效應模型來分析分層數據並捕捉個人和上下文效應。

研究結果

  • 主題與身分認同匹配 (TIM) 顯著影響使用者對線上仇恨言論的感知方式。
    • 在所有仇恨言論主題中,當存在 TIM 時,人們認為仇恨言論帖子明顯更具仇恨性。
    • 人們普遍認為針對種族和性取向的線上仇恨言論比針對殘疾狀況、性別和宗教的仇恨言論更具仇恨性。
  • TIM 對撰寫線上反制言論的主觀體驗有顯著影響。
    • 當存在 TIM 時,人們對自己撰寫的反制言論感到更滿意,並認為其在應對與宗教、種族和殘疾相關的仇恨言論方面更有效。
    • 然而,對於針對性別的仇恨言論,當存在 TIM 時,人們在撰寫反制言論時會感到明顯更困難,並且認為自己的反制言論效果較差,尤其是在女性參與者中。
  • 反制言論的語言特徵(情緒和長度)和策略(例如同理心、幽默和反駁)與參與者對線上仇恨言論的感知仇恨程度以及他們撰寫反制言論的體驗相關。
  • 探索性分析發現,以前使用過 ChatGPT 或認為 ChatGPT 有用的參與者在撰寫反制言論時遇到的困難明顯較少。

研究貢獻

  • 本研究為 CSCW 研究提供了一個全面的理解,了解塑造反制言論者在社群媒體上對反制言論的感知和撰寫的各種因素。
  • 本研究通過提供大量定量分析來證明 TIM 如何影響反制言論的感知和撰寫,從而擴展了現有研究。
  • 本研究的探索性分析通過提供與現有定性見解相輔相成的經驗性定量視角,為人工智慧在撰寫線上反制言論中的作用提供了參考。
edit_icon

客製化摘要

edit_icon

使用 AI 重寫

edit_icon

產生引用格式

translate_icon

翻譯原文

visual_icon

產生心智圖

visit_icon

前往原文

統計資料
研究人員分析了總共 1261 對仇恨言論帖子和參與者撰寫的反制言論。 參與者平均需要 15 分鐘才能完成調查。 評估者間信度 (IRR) 為 0.882(95% 信賴區間,0.806 至 0.958),表明評估者之間的協議程度非常高。
引述
“The escalation of online hate speech presents a significant threat to individuals and society.” “One possible solution to online hate speech is online counterspeech, which is the act of responding to hateful content with the intention of stopping it, reducing its impact, or supporting the target.” “Understanding how the identity of counter-speakers and the use of AI influence an individual’s willingness and ability to intervene upon encountering hate speech provides valuable insights for designing effective counter-extremism strategies.”

從以下內容提煉的關鍵洞見

by Kaike Ping, ... arxiv.org 11-05-2024

https://arxiv.org/pdf/2411.01675.pdf
Perceiving and Countering Hate: The Role of Identity in Online Responses

深入探究

社群媒體平台可以採取哪些措施來促進更具同理心和有效性的線上反制言論?

社群媒體平台在促進更具同理心和有效性的線上反制言論方面,可以採取多項措施: 推廣反制言論的教育資源: 平台可以提供有關如何辨識和有效應對線上仇恨言論的指南和資源,教導用戶如何以尊重和同理心的方式撰寫反制言論。 提供反制言論範例: 展示有效的反制言論範例,讓用戶了解如何以有說服力和同理心的方式回應仇恨言論。 開發反制言論工具: 提供工具來幫助用戶撰寫反制言論,例如: 情感分析工具: 幫助用戶識別和調整反制言論的情緒基調,避免過於激進或攻擊性。 論點建議工具: 根據仇恨言論的內容,提供相關事實、數據或論點,幫助用戶撰寫更具說服力的反駁。 同理心提示工具: 提醒用戶站在受害者的角度思考,並以同理心和尊重的態度回應。 建立正面互動的社群規範: 制定明確的社群規範,鼓勵用戶積極參與反制言論,並對違反規範的用戶採取適當的措施。 與民間團體合作: 與致力於反制仇恨言論的民間團體合作,共同推廣反制言論的意識和技巧。

如果人們認為反制言論無效或甚至可能適得其反,那麼他們是否不太可能介入線上仇恨言論?

是的,如果人們認為反制言論無效,甚至可能適得其反,他們確實不太可能介入線上仇恨言論。研究顯示,人們在決定是否介入線上仇恨言論時,會考慮以下因素: 自我效能感: 人們需要相信自己的反制言論能夠產生積極的影響,才會願意挺身而出。如果他們認為反制言論無效,或者擔心會讓情況更糟,就會選擇保持沉默。 恐懼報復: 人們可能會擔心遭到仇恨言論者的報復,例如被網路霸凌、人肉搜索或其他形式的攻擊,因此不願介入。 旁觀者效應: 當旁觀者眾多時,人們可能會認為其他人會採取行動,自己就不需要介入,這種現象稱為「旁觀者效應」。 為了鼓勵更多人參與反制言論,社群媒體平台和社會各界需要共同努力,提升人們對反制言論的信心,並降低他們對報復的恐懼。

在設計人工智慧系統以協助撰寫線上反制言論時,應考慮哪些倫理含義?

設計人工智慧系統以協助撰寫線上反制言論時,必須謹慎考慮以下倫理含義: 避免偏見和歧視: 人工智慧系統的訓練數據必須具有代表性和平衡性,避免產生或加劇對特定群體的偏見和歧視。 確保透明度和可解釋性: 人工智慧系統的決策過程應該透明且易於理解,讓用戶了解其反制言論建議的依據。 尊重言論自由: 人工智慧系統不應被用於審查或壓制合法的言論自由,即使這些言論可能具有爭議性。 保護隱私和數據安全: 人工智慧系統應妥善處理用戶數據,確保其隱私和安全。 預防濫用和惡意行為: 設計者應預先考慮人工智慧系統可能被濫用的情況,並採取措施防止其被用於散播仇恨言論或其他惡意行為。 總之,設計用於協助撰寫線上反制言論的人工智慧系統,需要在技術創新和倫理責任之間取得平衡,才能真正發揮其積極作用,創造更安全和包容的線上環境。
0
star