機械学習モデルの説明における不一致は、信頼性と応用可能性を阻害する深刻な問題であり、特に重要な意思決定が求められる状況下では深刻です。本稿では、ステークホルダー中心の視点から、説明可能な機械学習における多様な解釈の橋渡しをすることを目的とした新しいフレームワーク「EXAGREE」を紹介します。