大規模言語モデルは偽情報の生成と検出の両面で重要な役割を果たすが、その能力には差異がある。一部のモデルは偏見を含む偽情報を容易に生成できるが、他のモデルは安全性プロトコルに従って拒否する。一方、大規模モデルは一般的に偽情報の検出能力が優れており、人間が書いた偽情報よりもLLMが生成した偽情報の方が検出されにくい。