核心概念
本文提出了一種基於代理的框架 LOREHM,利用大型多模態模型 (LMM) 來解決低資源環境下有害迷因圖偵測的挑戰,通過結合外部相關樣本增強和內部迷因洞察增強策略,在僅有少量標註樣本的情況下,實現了優於現有方法的性能。
論文資訊
Jianzhao Huang, Hongzhan Lin, Ziyan Liu, Ziyang Luo, Guang Chen, & Jing Ma. (2024). Towards Low-Resource Harmful Meme Detection with LMM Agents. arXiv preprint arXiv:2411.05383v1.
研究目標
本研究旨在探討如何利用大型多模態模型 (LMM) 來有效地在低資源環境下進行有害迷因圖偵測。
方法
代理驅動框架 (LOREHM): 將 LMM 視為代理,並通過兩種策略增強其能力:
外部相關樣本增強: 檢索與目標迷因圖相似的已標註迷因圖,並利用其標籤信息作為先驗知識,輔助 LMM 代理進行決策。
內部迷因洞察增強: 模仿人類學習過程,讓 LMM 代理從其在有限標註樣本上的失敗嘗試中汲取經驗,提取出關於迷因圖有害性的通用洞察,從而更好地理解隱含在迷因圖中的有害信息。
投票機制: 根據檢索到的相關迷因圖的標籤,採用投票機制對目標迷因圖進行初步預測。
經驗收集: 利用零樣本學習方法評估參考集中每個迷因圖的有害性,並將錯誤的推理軌跡收集到經驗池中。
洞察提取: 迭代地將經驗池中的錯誤軌跡輸入 LMM,促使其反思失敗原因,並結合當前的洞察集,決定對其進行的操作 (添加、反對、贊成、編輯),最終得到一個包含關於迷因圖有害性通用洞察的集合。
推理: 結合外部相關樣本增強和內部迷因洞察增強的結果,讓 LMM 代理對目標迷因圖的有害性進行最終判斷。
主要發現
實驗結果表明,LOREHM 在三個迷因圖數據集 (HarM、FHM、MAMI) 上的低資源有害迷因圖偵測任務中均取得了優於現有方法的性能。
與僅使用少樣本學習或僅使用外部知識增強的方法相比,LOREHM 所提出的兩種策略 (外部相關樣本增強和內部迷因洞察增強) 能夠相互補充,共同提高模型的性能。
LOREHM 的性能在很大程度上取決於所使用的 LMM 的能力,未來可以通過使用更強大的 LMM 來進一步提高其性能。
意義
本研究為低資源環境下的有害迷因圖偵測提供了一種新的思路和方法,有助於更有效地應對網絡有害信息傳播的挑戰。
LOREHM 所提出的代理驅動框架具有較強的通用性和可擴展性,未來可以應用於其他低資源的自然語言處理任務中。
局限性
本研究主要關注於英文迷因圖數據集,未來需要進一步探索其他語言和文化背景下的有害迷因圖偵測問題。
LOREHM 的性能在很大程度上取決於所使用的 LMM 的能力,而現有的 LMM 仍然存在著一些局限性,例如容易產生幻覺、存在偏見等,這些問題都需要在未來的工作中進一步解決。
統計資料
LOREHM 在 HarM 數據集上,相較於 GPT-4o 的基準模型,macro-F1 提升了 2.75%。
LOREHM 在 FHM 數據集上,相較於 GPT-4o 的基準模型,macro-F1 提升了 4.40%。
LOREHM 在 MAMI 數據集上,相較於 GPT-4o 的基準模型,macro-F1 提升了 2.46%。