本論文では、大規模言語モデル(LLM)を活用した新しい枠組み「MolReGPT」を提案している。MolReGPTでは、インコンテキスト少量学習のパラダイムを導入し、ChatGPTのようなLLMに分子-キャプション翻訳タスクを実行する能力を付与する。具体的には、分子の類似性に基づいて、ローカルデータベースから類似分子とそのテキスト説明を検索し、LLMにコンテキスト例として提供することで、ドメイン固有の事前学習やファインチューニングを必要とせずに、分子発見を強化する。
実験結果は、ファインチューニングされたモデルと比較して、MolReGPTがMolT5-baseを上回り、MolT5-largeと同等の性能を達成できることを示している。これは、ドメイン固有のコーパスやファインチューニングを必要とせずに、LLMを分子-キャプション翻訳タスクに適用できることを意味している。本研究は、LLMの適用範囲を拡大するとともに、分子発見と設計のための新しいパラダイムを提供している。
לשפה אחרת
מתוכן המקור
arxiv.org
תובנות מפתח מזוקקות מ:
by Jiatong Li,Y... ב- arxiv.org 04-23-2024
https://arxiv.org/pdf/2306.06615.pdfשאלות מעמיקות