Core Concepts
MMD-MPは、高い安定性と転送可能性を持ち、他の方法よりも優れたテストパワーを提供します。
Abstract
この記事では、大規模言語モデル(LLMs)によって生成されたテキストを検出するための新しい手法であるMMD-MPに焦点を当てています。MMD-MPは、訓練データの分散が大きい場合でも高い安定性を示し、他の手法よりも優れたテストパワーを提供します。実験結果は、MMD-MPが異なるトレーニングポピュレーションで優れた性能を発揮することを示しています。
Stats
MMD-Dは平均約8% ↑ のテストパワーでNeo-Sテキストを検出します。
MMD-MPは平均約6% ↑ のテストパワーでNeo-Sテキストを検出します。
1,000個の処理された段落でトレーニングした場合、MMD-MPは他の方法よりも平均約8.20% ↑ のテストパワーを達成します。