生成型AIの出力を理解し、制御し、検証するためには、説明可能性が重要である。生成型AIの特性から、従来の説明可能性アプローチでは不十分であり、新たな要件と可能性が生まれている。
過剰適合したマスクオートエンコーダを使用することで、生成型モデルによる訓練データの過度な模倣を効果的に検出できる。