이 논문은 편향된 데이터셋에서 속성 중심 정보 병목 기법을 활용하여 분해 가능하고 편향되지 않은 표현을 학습하는 방법을 제안한다.
주요 내용은 다음과 같다:
해석 가능한 기계 학습 모델인 Concept-Centric Transformer (CCT)를 통해 형상 중심 표현 학습의 중요성을 확인한다. CCT는 주요 개념을 자율적으로 식별하고 강조할 수 있으며, 이는 편향 해소에 도움이 될 수 있다.
제안하는 Debiasing Global Workspace (DGW) 모델은 속성 슬롯 어텐션 (ASA) 모듈과 크로스 어텐션 (CA) 모듈을 통해 입력 데이터의 본질적 속성과 편향된 속성을 구분하여 학습한다.
혼합 전략과 재가중치 샘플링, 편향 속성 증강 등의 훈련 기법을 통해 편향된 속성과 본질적 속성을 효과적으로 분리한다.
정량적 및 정성적 분석을 통해 DGW 모델이 편향된 데이터셋에서 우수한 성능과 해석 가능성을 보여줌을 확인한다.
Іншою мовою
із вихідного контенту
arxiv.org
Ключові висновки, отримані з
by Jinyung Hong... о arxiv.org 03-22-2024
https://arxiv.org/pdf/2403.14140.pdfГлибші Запити