本論文では、大規模言語モデル(LLM)を活用した新しい枠組み「MolReGPT」を提案している。MolReGPTでは、インコンテキスト少量学習のパラダイムを導入し、ChatGPTのようなLLMに分子-キャプション翻訳タスクを実行する能力を付与する。具体的には、分子の類似性に基づいて、ローカルデータベースから類似分子とそのテキスト説明を検索し、LLMにコンテキスト例として提供することで、ドメイン固有の事前学習やファインチューニングを必要とせずに、分子発見を強化する。
実験結果は、ファインチューニングされたモデルと比較して、MolReGPTがMolT5-baseを上回り、MolT5-largeと同等の性能を達成できることを示している。これは、ドメイン固有のコーパスやファインチューニングを必要とせずに、LLMを分子-キャプション翻訳タスクに適用できることを意味している。本研究は、LLMの適用範囲を拡大するとともに、分子発見と設計のための新しいパラダイムを提供している。
다른 언어로
소스 콘텐츠 기반
arxiv.org
더 깊은 질문