深層学習システムの内部ニューロンの活性化を正しく解釈することは、深層学習システムが入力から何を関連するものとして検出しているかを明らかにし、深層学習システムの黒箱性を解明するのに役立つ。本研究では、大規模な背景知識と記号的推論を利用することで、内部ニューロンの活性化に対して意味のある解釈を自動的に生成できることを示す。