Core Concepts
アノテーション公理からのグローバル情報とローカル情報をキャプチャする自己一致トレーニング方法が、概念サブサンプション予測の性能を向上させる。
Abstract
最近、オントロジー埋め込みにおいて、アノテーション公理からのグローバル情報とローカル情報を抽出することが重要視されています。この研究では、InMEとCoMEの2つの埋め込みモデルによる自己一致トレーニング方法が提案されました。実験結果では、GOおよびFoodOnのオントロジーにおいて、提案手法は既存モデルを凌駕しました。しかし、HeLiSにおいては注釈語数が少ないため、他の手法と同等でした。
Stats
InMEとCoMEはグローバル情報としてアノテーション公理から単語出現位置を抽出します。
CoMEは局所情報としてアノテーション公理内での単語共起関係を捉えます。
Quotes
"The self-matching training method increases the robustness of the concept subsumption prediction when predicted superclasses are similar to subclasses and are isolated to other entities in an ontology."
"Our evaluation experiments show that the self-matching training method with InME outperforms the existing ontology embeddings for the GO and FoodOn ontologies."