Modular Ontology Modeling (MOMo) methodology (MOMo) attempts to mimic the human analogical process by using modular patterns.
Collection of 104 ontology design patterns representing often occurring nouns, curated from common-sense knowledge available in LLMs.
Large Language Models have quickly become a source of common knowledge and replacing search engines for questions.
Quotes
"Large language models have quickly become a source of commonsense information, in some cases supplanting search engine use."
"We posit that the use of modular ontology is one way that this can be accomplished."
"In this paper, we thus present a collection of 104 ontology design patterns representing often occurring nouns."
Large Language Models(LLMs)は膨大な情報から学習し、人間が不可能な量の情報を処理できます。これにより、LLMsは世界の常識的な視点を示すことができます。例えば、GPT-4は言語モデル内部の知識ベースからクロールすることが可能です。この能力により、LLMsは「ほぼ正確な」言語から学んだ事実や世界の情報を表現し、検索エンジン以上の使いやすさで一般的な知識源として活用されています。
従来の検索エンジンでは得られなかった深層学習に基づく自然言語処理技術によって、LLMsは豊富で包括的なコーパスから推論された知識を提供します。その結果、「何でも聞ける」という特性があり、質問応答システムとしても利用されています。このように、LLMsは一般的な知識源として広く受け入れられつつあり、将来的に問い合わせエンジンや他のAIアプリケーションで重要な役割を果たす可能性があります。