核心概念
知識グラフは人間にも機械にも読み取り可能な形式で関連データ(知識)を表現するため、解釈可能な人工知能の基盤として適している。
要約
本論文は、知識グラフを用いた解釈可能な人工知能(Comprehensible Artificial Intelligence、CAI)について概説している。
まず、CAIの概念を説明する。CAIには2つの側面がある。1つは黒箱モデルの意思決定プロセスを人間が理解できる形で再構築する「説明可能な人工知能(Explainable Artificial Intelligence、XAI)」、もう1つは人間にも理解できる意思決定プロセスを持つ「解釈可能機械学習(Interpretable Machine Learning、IML)」である。
次に、知識グラフの表現方法(記号的、非記号的、ニューロ記号的)、CAIの適用タスク(リンク予測、ノードクラスタリング、グラフクラスタリング、クラスタリング、推薦)、CAIの基盤手法(因子分解機械、翻訳学習、ルールベース学習、ニューラルネットワーク、強化学習)について説明する。
IMLの研究動向としては、ルール抽出手法、パスファインディング手法、埋め込み手法が挙げられる。XAIの研究動向としては、ルールベース学習手法、分解手法、代理モデル手法、グラフ生成手法が挙げられる。
各手法の特徴や課題について詳しく解説し、知識グラフを用いたCAIの研究の現状と今後の展望を示している。
統計
知識グラフは人間にも機械にも読み取り可能な形式で関連データ(知識)を表現する。
知識グラフを入力とするAIモデルには、記号的、非記号的、ニューロ記号的な表現方法がある。
CAIには、説明可能な人工知能(XAI)と解釈可能機械学習(IML)の2つの側面がある。
引用
「知識グラフは人間にも機械にも読み取り可能な形式で関連データ(知識)を表現するため、解釈可能な人工知能の基盤として適している。」
「CAIには、説明可能な人工知能(XAI)と解釈可能機械学習(IML)の2つの側面がある。」