CLIP과 같은 사전 학습된 비전-언어 모델은 개별 개체에 대한 이해가 부족하여 복합적인 이미지-텍스트 매칭에 어려움을 겪는다. 이를 해결하기 위해 ComCLIP은 이미지를 주체, 객체, 술어 서브이미지로 분해하고 이를 활용하여 개념 단위 매칭을 수행함으로써 CLIP의 성능을 향상시킨다.
CLIP과 같은 사전 학습된 비전-언어 모델은 개별 개체의 의미론적 이해 부족으로 복합적 이미지-텍스트 매칭에 어려움을 겪는다. 이를 해결하기 위해 ComCLIP은 이미지를 주체, 객체, 술어 서브이미지로 분해하고 이를 활용하여 개념 수준의 매칭을 수행함으로써 CLIP의 성능을 향상시킨다.
CLIP과 같은 사전 학습된 비전-언어 모델은 개별 개체의 의미론적 이해 부족으로 복합적 이미지-텍스트 매칭에 어려움을 겪는다. 이를 해결하기 위해 ComCLIP은 이미지를 주체, 객체, 술어 서브이미지로 분해하고 이를 활용하여 개념 수준의 매칭을 수행함으로써 CLIP의 성능을 향상시킨다.