多モーダル大規模言語モデル(MLLMs)は情報処理をサポートし、事実チェックに活用される可能性がある。本研究では、GPT-4Vが悪意ある多モーダル主張を特定する際に優れた性能を発揮し、オープンソースのモデルはバイアスが強く、プロンプトに高い感受性を示すことが示された。MLLMsは事実チェックの支援に潜在的な可能性を持つ一方で、その限界も存在し、特に事実性の面で問題があることが指摘された。研究では既存の多モーダルモデルを体系的に評価し、リアルワールドの事実チェックをサポートする能力を明らかにした。
翻譯成其他語言
從原文內容
arxiv.org
深入探究