대규모 언어 모델(LLM)과 LLM 기반 자율 에이전트는 분자 설계, 속성 예측 및 합성 최적화를 자동화하여 화학 분야의 과학적 발견을 가속화할 수 있는 잠재력을 가지고 있습니다.
대규모 언어 모델(LLM)은 지식 그래프 기반 대화형 추론 작업에서 유망한 성능을 보이지만, 환경 인식 부족과 중간 추론 단계에 대한 최적화 메커니즘 부족으로 인해 여전히 어려움을 겪고 있다. 본 논문에서는 LLM-ARK라는 새로운 프레임워크를 제안하여 LLM을 지식 그래프 추론 에이전트로 활용하고, 전체 텍스트 환경 프롬프트와 강화 학습을 통해 성능을 향상시킨다.
본 연구는 생물다양성 연구 논문에서 심층 학습 방법론 정보를 자동으로 추출하고 처리하기 위해 다중 대규모 언어 모델(LLM)과 검색 증강 생성(RAG) 접근 방식을 활용하는 방법을 제시하고, 이를 통해 연구 결과의 재현성과 지식 전달을 향상시키는 것을 목표로 합니다.
대규모 언어 모델(LLM)은 특정 프롬프트 엔지니어링을 통해 표 기반 사실 확인(TFV) 작업에서 어느 정도 가능성을 보여주지만, 작업 특화적인 소규모 모델에 비해 성능이 떨어진다. 문맥 내 학습은 LLM의 TFV 능력을 향상시키는 데 제한적인 효과를 보여주는 반면, 지침 미세 조정은 상당한 개선을 가져온다.
대규모 언어 모델(LLM)의 환각 현상을 줄이기 위해, 입력 프롬프트의 엔트로피 기반 불확실성을 활용하여 LLM이 잘못된 전제에 현혹되지 않도록 하는 새로운 프롬프트 알고리즘인 DecoPrompt를 제안한다.
대규모 언어 모델(LLM)의 암시적 증거 탐지 및 추론 능력을 평가하기 위해 DetectBench 벤치마크를 제안하고, LLM의 성능 향상을 위한 Detective Reasoning Prompt 및 Finetuning 방법을 소개한다.
CTIBench는 사이버 위협 인텔리전스(CTI) 작업에서 대규모 언어 모델(LLM)의 성능을 평가하기 위해 특별히 고안된 최초의 벤치마크로, LLM의 이해력, 추론 능력, 문제 해결 능력을 측정하는 다양한 데이터 세트와 작업을 제공합니다.
StrategyLLM이라는 새로운 프레임워크는 대규모 언어 모델(LLM)을 활용하여 다양한 문제 해결 작업에 일반화 가능하고 일관된 퓨샷 프롬프트를 자동으로 생성합니다.
대규모 언어 모델(LLM)의 사실적 오류(환각) 문제를 해결하기 위해 지능형 정보 보조 시스템인 AssistRAG를 소개하고, 이를 통해 LLM의 추론 능력과 정확성을 향상시키는 방법을 제시합니다.
KeyB2는 대규모 언어 모델(LLM)을 사용하여 긴 문서의 순위를 매길 때 발생하는 계산 복잡성 문제를 해결하기 위해 핵심 블록 선택 전략을 활용하는 효율적인 정보 검색 방법입니다.