Conceitos Básicos
사전 훈련된 모델의 편향을 감소시키기 위해 변화를 제한하는 방법을 제안한다. 매우 적은 수의 편향을 반박하는 예제만으로도 성능 향상을 달성할 수 있다.
Resumo
이 연구는 사전 훈련된 딥 모델에 내재된 편향을 감소시키는 방법을 제안한다. 모델의 가중치를 변경할 때 변화를 강하게 제한하는 접근법을 사용한다. 이를 통해 편향을 반박하는 매우 적은 수의 예제만으로도 성능 향상을 달성할 수 있다.
구체적으로 다음과 같은 내용을 다룬다:
- 사전 훈련된 모델의 가중치를 변경할 때 변화를 제한하는 손실 함수를 제안한다. 이 함수는 원래 모델의 성능을 유지하면서 편향을 감소시킨다.
- 변화를 최소화하기 위해 모델 가중치를 0으로 초기화된 보완 네트워크를 사용한다.
- 과적합을 방지하기 위해 조기 중단 기준을 제안한다. 이 기준은 편향을 반박하는 예제에 대한 예측 성능이 향상되면 학습을 중단한다.
- 피부 병변 분류, 헤어 색상 분류, 새 종류 분류, 암 조직 분류 등 다양한 데이터셋에서 실험을 수행하여 제안 방법의 효과를 검증한다.
Estatísticas
피부 병변 분류 데이터셋에서 편향된 모델의 정확도가 0.865에서 0.801로 감소했다.
헤어 색상 분류 데이터셋에서 편향된 모델의 정확도가 0.947에서 0.779로 감소했다.
새 종류 분류 데이터셋에서 편향된 모델의 정확도가 0.931에서 0.786으로 감소했다.
암 조직 분류 데이터셋에서 편향된 모델의 정확도가 0.996에서 0.786으로 감소했다.
Citações
"사전 훈련된 모델의 편향을 감소시키기 위해 변화를 제한하는 방법을 제안한다."
"매우 적은 수의 편향을 반박하는 예제만으로도 성능 향상을 달성할 수 있다."