Core Concepts
自己教師付きのマルチモーダル学習アプローチが、吸着構成のエネルギー予測精度を向上させることが示されました。
Abstract
最近の進歩により、言語モデルを使用して触媒特性を予測することが可能になりました。しかし、現在のCatBERTaモデルは、吸着構成の微妙な変化を正確に区別する能力に制限があります。この制限は、エネルギー予測において重要であるため、テキスト表現を洗練する必要性が指摘されています。また、注意スコアの分析から、吸着構成に関連する特徴を理解することがエネルギーモデリングにおいて重要であることが示唆されています。
Stats
CatBERTaモデルはDimeNet++と同等の精度を達成しました。
CatBERTaのMAEは0.71 eVでした。
新しい自己教師付きマルチモーダル学習手法はMAEを0.35 eVまで低下させました。
Quotes
"Graph Neural Networks (GNNs) serve as primary ML models in these hybrid approaches."
"Our study addresses this limitation by introducing a self-supervised multi-modal learning approach, termed graph-assisted pretraining."
"The proposed multimodal pretraining method effectively improves the accuracy of configuration energy predictions."