본 연구는 다중 모달 대형 언어 모델(MLLM)의 세부적인 이미지 이해 능력을 향상시키기 위한 새로운 프레임워크를 제안한다.
먼저, 기존 데이터셋의 주석을 활용하여 다양한 참조 이해 과제를 구축한다. 이를 통해 객체 식별, 공간 관계 추론, 객체 계수 등 세부적인 이미지 이해에 필요한 다양한 능력을 학습할 수 있다.
또한 자기 일관성 부트스트래핑 방법을 제안하여 기존 객체 탐지 데이터셋의 주석을 활용해 고품질의 참조 표현-경계 상자 쌍을 생성한다. 이를 통해 추가적인 참조 이해 과제 데이터를 확보할 수 있다.
시각 인코더의 경우, 주요 매개변수를 고정하고 어댑터를 도입하여 효율적으로 미세 조정한다. 이를 통해 세부적인 이미지 이해 능력을 향상시키면서도 기존 지식의 손실을 방지할 수 있다.
실험 결과, 제안 방법은 기존 MLLM 대비 적은 매개변수와 적은 학습 데이터로도 참조 이해 과제와 기존 다중 모달 추론 과제에서 우수한 성능을 달성했다. 특히 MMBench 벤치마크에서 최고 순위를 기록했다.
Sang ngôn ngữ khác
từ nội dung nguồn
arxiv.org
Thông tin chi tiết chính được chắt lọc từ
by Shiyu Xuan,Q... lúc arxiv.org 03-14-2024
https://arxiv.org/pdf/2310.00582.pdfYêu cầu sâu hơn