本研究は、最新のテキストから画像生成モデルの出力を正確に検出・帰属する手法を開発している。
まず、12種類の最先端のテキストから画像生成モデルを用いて約45万枚の画像データセットを構築した。これらの画像に対して、効率的なニューラルネットワークモデルを訓練し、90%を超える高精度で画像の検出と帰属を行うことができた。
次に、同一のモデルでも推論段階のハイパーパラメータ(チェックポイント、スケジューラ、サンプリング数、初期化シード)を変更した場合の検出可能性を調べた。その結果、特に初期化シードの変更は98%以上の高精度で検出可能であり、他のパラメータも無作為以上の精度で検出できることがわかった。
さらに、ユーザーが画像生成モデルの出力に対して行う編集(SDXL Inpainting、Photoshop GenFill、Magnific AI)の影響を調べた。編集後の画像でも、元のモデルを一定の精度で特定できることが示された。
最後に、画像の高周波成分の摂動や中間表現への変換を行い、モデルの検出に利用される特徴の性質を分析した。その結果、高周波成分の変化に対してもモデル検出精度は大きく低下せず、スタイル特徴を用いた検出が最も高精度であることがわかった。これは、生成モデルの特徴が単なる高周波成分ではなく、中間的な画像表現にも深く関係していることを示唆している。
In un'altra lingua
dal contenuto originale
arxiv.org
Approfondimenti chiave tratti da
by Katherine Xu... alle arxiv.org 03-29-2024
https://arxiv.org/pdf/2403.19653.pdfDomande più approfondite