Core Concepts
LLM은 분자와 자연어 텍스트 사이의 연결을 목표로 하는 분자 캡션 번역 작업에서 우수한 성능을 보여주며, ICMA는 LLM이 문맥 예시를 통해 분자-텍스트 정렬을 학습하고 분자 캡션 번역 작업에서 우수한 성능을 달성할 수 있도록 하는 새로운 패러다임을 제안한다.
Abstract
대형 언어 모델(Large Language Models, LLM)은 분자 캡션 번역 작업에서 우수한 성능을 보임
이를 위해 In-Context Molecule Adaptation (ICMA)이라는 새로운 패러다임이 제안됨
ICMA는 LLM이 문맥 예시를 통해 분자-텍스트 정렬을 학습하고 분자 캡션 번역 작업에서 우수한 성능을 달성할 수 있도록 함
ICMA는 Cross-modal Retrieval, Post-retrieval Re-ranking, In-context Molecule Tuning 세 단계로 구성됨
실험 결과, ICMA는 LLM이 분자-텍스트 정렬을 학습하고 분자 캡션 번역 작업에서 우수한 성능을 달성하는 데 효과적임
Stats
LLM은 분자 캡션 번역 작업에서 우수한 성능을 보임
ICMA는 Cross-modal Retrieval, Post-retrieval Re-ranking, In-context Molecule Tuning 세 단계로 구성됨
Quotes
"ICMA는 LLM이 문맥 예시를 통해 분자-텍스트 정렬을 학습하고 분자 캡션 번역 작업에서 우수한 성능을 달성할 수 있도록 하는 새로운 패러다임을 제압한다." - Jiatong Li