최근 대규모 언어 모델(LLM)은 수학, 코드 생성, 일반 목적 추론 등 다양한 분야에서 뛰어난 성능을 보여주고 있습니다. 그러나 숫자 또는 테이블 데이터를 처리하고 분석해야 하는 특정 도메인 애플리케이션에서는 SOTA 모델들도 어려움을 겪고 있습니다.
이 논문에서는 테이블 데이터 분석 작업을 해결하기 위한 새로운 접근법인 테이블 임베딩 모델(TEM)을 소개합니다. TEM은 기존 SOTA 임베딩 모델의 한계를 극복하기 위해 테이블 데이터 RAG(Retrieval-Augmentation Generation) 애플리케이션에 특화된 임베딩 모델을 파인튜닝하는 방식입니다.
TEM은 금융 시장 도메인에서 평가되었으며, 복잡하고 고차원적인 데이터셋을 효과적으로 처리할 수 있음을 입증했습니다. 평가 결과, TEM은 기존 SOTA 임베딩 모델을 크게 능가할 뿐만 아니라 모델 크기도 훨씬 더 작습니다.
다른 언어로
소스 콘텐츠 기반
arxiv.org
더 깊은 질문