본 연구 논문에서는 도메인 일반화(DG)를 위한 새로운 프레임워크인 LFME(Learning From Multiple Experts)를 소개합니다. LFME는 여러 소스 도메인에서 학습된 여러 전문가 모델의 지식을 활용하여 보지 못한 타겟 도메인에서도 우수한 성능을 발휘하는 강력한 타겟 모델을 학습하는 것을 목표로 합니다.
본 연구의 목표는 기존 DG 방법들이 제한적인 하이퍼파라미터 탐색 및 평가 프로토콜을 사용할 때 ERM(Empirical Risk Minimization)보다 성능이 떨어지는 경우가 많다는 점을 감안하여, 다양한 데이터셋에서 ERM을 지속적으로 개선할 수 있는 새로운 DG 접근 방식을 개발하는 것입니다.
LFME는 여러 전문가 모델을 동시에 학습하고, 각 전문가 모델은 특정 소스 도메인에 특화되도록 합니다. 타겟 모델은 모든 소스 도메인의 데이터를 사용하여 학습되며, 전문가 모델의 출력 확률을 활용한 로짓 정규화 항을 통해 전문가 모델의 지식을 흡수합니다. 이를 통해 타겟 모델은 모든 소스 도메인에 대한 전문 지식을 갖춘 모델로 발전하게 됩니다.
본 논문에서는 LFME가 DomainBed 벤치마크의 분류 작업과 합성 환경에서 실제 환경으로의 분할 작업을 포함한 다양한 DG 작업에서 광범위하게 평가되었습니다. 그 결과 LFME는 기준 모델인 ERM을 지속적으로 개선하고 최첨단 DG 방법들과 비슷하거나 더 나은 성능을 달성했습니다.
본 연구는 LFME가 도메인 일반화를 위한 간단하면서도 효과적인 프레임워크임을 보여줍니다. LFME는 여러 전문가 모델의 지식을 활용하여 타겟 모델의 일반화 성능을 향상시키는 새로운 접근 방식을 제시합니다.
본 연구는 도메인 일반화 분야에 다음과 같은 기여를 합니다.
향후 연구에서는 LFME의 학습 효율성을 개선하고, 전문가 모델의 선택 및 학습 방법을 개선하는 연구를 수행할 수 있습니다.
Egy másik nyelvre
a forrásanyagból
arxiv.org
Mélyebb kérdések