Core Concepts
機械が人間の顔の意味論的領域をどのように知覚するかを理解し、システムの出力スコアを人間の推論により一致させることが主要目標である。
Abstract
この論文では、コンピュータと人間のビジョンを結びつけ、顔認証アルゴリズムの解釈性を向上させる取り組みが始まっています。Mediapipeツールを使用して、人間の顔の異なる意味的領域を特定し、モデルに最も重要なセマンティック領域のサブセットを選択しました。提案された摂動アルゴリズムは、システムがこれらの概念をどれだけ似ているかまたは異なっているかとして捉えたことを示す類似性マップを生成しました。システムの出力スコアを文脈化することで、それを人間の推論により一致させることができます。
Abstract:
人工知能(AI)がFace Verificationなど感度アプリケーションの意思決定プロセスに影響与えている中、透明性、公平性、責任追及確保が基本的である。
説明可能なAI(XAI)技術はAI決定を明確化するため存在するが、これら決定の解釈可能性も同じくらい重要。
本稿では、コンピュータと人間ビジョンを組み合わせて顔認証アルゴリズムの説明可能性向上手法を提案。
特に、機械が2つの顔比較タスク中に顔部位やヒトセマンティックエリアをどう知覚するか理解するために人間知覚プロセスからインスパイアされています。
Introduction:
顔認証は個々人物の身元確認目指し、法執行や国境管理など幅広い分野で利用されており、AIが普及する中でモデル公平性・透明性確保は重要。
XAIはこの挑戦に対処しAI解釈可能性向上して信頼度増加。
Saliency mapsは画像内重要特徴示すXAIソリューションであるが、Face Verificationではしばしば特定アプリケーションに基づく可変閾値依存しており理解可能な意味クラスよりも疑問点引き起こす。
Data Extraction:
SA B = fA · fB / ||fA|| ||fB|| (1)
∆S = SA B - SA(n) B(n) (2)
Stats
SA B = fA · fB / ||fA|| ||fB||
∆S = SA B - SA(n) B(n)
Quotes
"Explainable Artificial Intelligence (XAI) addresses this challenge by enhancing AI interpretability to make AI systems transparent and understandable to humans, thereby increasing trust in their decisions."
"We present an approach to combine computer and human vision to increase the explanation’s interpretability of a face verification algorithm."