LLM 기반 에이전트의 동적 팀 구성 및 협업 구조를 통해 작업 수행 능력과 효율성을 향상시킬 수 있다.
텍스트에서 이벤트 간의 인과 관계를 자동으로 식별하는 이벤트 인과 관계 식별(ECI) 작업에 대한 포괄적인 개요를 제공하며, 핵심 원칙, 기술 프레임워크, 분류, 과제 및 미래 방향을 제시합니다.
제한된 데이터 환경에서 사전 훈련된 대규모 언어 모델(LLM)을 효과적으로 미세 조정하기 위한 다양한 전이 학습 방법과 실용적인 가이드라인을 제시합니다.
대규모 언어 모델(LLM)의 새로운 테스트 시간 적응(TTA) 방법인 StreamAdapter는 컨텍스트 정보를 모델 파라미터 업데이트에 직접 매핑하여 적은 수 또는 전혀 데모 없이도 새로운 작업에 빠르게 적응하거나 새로운 지식을 습득할 수 있도록 합니다.
LLM의 코드 완성 능력을 활용한 새로운 텍스트 분류 기법인 CoCoP는 기존 few-shot learning보다 성능이 뛰어나며, 특히 코드 모델에서 그 효과가 두드러진다.
대규모 언어 모델(LLM)에서 더 작은 모델로 지식을 전이하기 위해 데이터 합성을 활용하는데, 기존의 방법들은 다양성 부족 문제가 있었다. 본 논문에서는 검색 증강을 통해 다양하고 인간이 작성한 텍스트와 유사한 데이터셋을 생성하는 SynthesizRR 방법론을 제안하고, 다양한 분류 작업에서 기존 방법 대비 향상된 성능을 보여준다.
대형 언어 모델(LLM)이 효과적인 질문을 통해 정보를 능동적으로 탐색하도록 유도하는 불확실성 인지 계획 알고리즘(UoT)을 소개합니다. UoT는 정보 이득에 기반한 불확실성 기반 보상을 활용하여 모델이 불확실성을 최대한 줄이는 방식으로 정보를 탐색하도록 유도합니다.
LoRA-BERT는 k-mer 패턴 및 ORF와 같은 특징을 활용하여 인간 및 마우스 종의 lncRNA와 mRNA를 효과적으로 구분하는 자연어 처리 모델로, 높은 정확도와 효율성을 보여줍니다.
본 논문에서는 재료 과학 분야의 다양한 질문에 전문적인 지식을 바탕으로 답변하는 대규모 언어 모델인 폴리메티스를 소개하고, 자체 개발한 지능형 추출 대규모 모델(IELM)을 통해 구축된 대규모 데이터셋을 활용한 학습 및 평가 결과를 제시합니다.
BPE(바이트 페어 인코딩)는 텍스트 압축에 널리 사용되는 방법이지만, 그 효율성에 대한 이론적 근거는 부족했습니다. 본 논문에서는 BPE의 압축 효율성에 대한 최초의 엄격한 보장을 제공하며, 최적의 페어 인코딩을 근사화하는 BPE의 성능을 이론적으로 분석합니다.