핵심 개념
機械学習モデルに複数の防御手法を組み合わせる際、手法間の競合を避けることで、各防御手法の効果を維持し、複合的なリスクからモデルを効果的に保護できる。
本論文は、機械学習モデルに対するセキュリティ、プライバシー、公平性などのリスクから保護するために、複数の防御手法を効果的に組み合わせる方法について考察しています。
機械学習モデルは、敵対的攻撃、データポイズニング、プライバシー侵害、公平性に関する問題など、さまざまなリスクにさらされています。これらのリスクに対処するために、さまざまな防御手法が提案されていますが、多くの場合、1つの防御手法では単一のリスクにしか対応できません。複数のリスクからモデルを保護するためには、複数の防御手法を組み合わせる必要がありますが、手法間の競合により、防御効果が低下する可能性があります。