이 논문은 대형 언어 모델의 정보 정제 훈련에 대한 새로운 관점을 제시하고, 이를 통해 검색 증강 생성의 성능을 향상시키는 방법을 제안합니다. 논문은 비지도식 방법을 사용하여 정보 정제 훈련을 수행하고, 다양한 작업에서의 일관된 성능 향상을 보여줍니다. 실험 결과는 INFO-RAG가 다양한 작업에서 LLM의 성능을 향상시키고, 문맥 학습 및 RAG의 견고성에 이점을 제공한다는 것을 보여줍니다.
Ke Bahasa Lain
dari konten sumber
arxiv.org
Wawasan Utama Disaring Dari
by Shicheng Xu,... pada arxiv.org 02-29-2024
https://arxiv.org/pdf/2402.18150.pdfPertanyaan yang Lebih Dalam