核心概念
제안된 CAMOUFLaGE 프레임워크는 잠재 확산 모델을 활용하여 이미지의 주요 특징을 보존하면서도 익명화를 달성합니다.
摘要
이 논문은 잠재 확산 모델(LDM)을 활용한 새로운 이미지 익명화 프레임워크 CAMOUFLaGE를 제안합니다. CAMOUFLaGE-Base는 사전 학습된 ControlNet을 결합하고 원본 이미지를 기반으로 한 익명화 가이드를 도입합니다. 반면 CAMOUFLaGE-Light는 IP-Adapter 모듈을 학습하여 장면의 핵심 요소와 각 인물의 얼굴 속성을 효율적으로 인코딩합니다. 전자는 더 강력한 익명화를 달성하고, 후자는 이미지 내용을 더 잘 보존하면서도 추론 시간을 75% 단축합니다. 기존 기법과 비교하여 CAMOUFLaGE는 얼굴, 신체, 배경 요소에 변형을 도입함으로써 복잡한 장면을 익명화할 수 있습니다. 향후 연구에서는 원본 이미지의 의미 있는 특징을 보존하면서도 효과적인 익명화를 달성하는 방법을 모색할 계획입니다.
統計資料
제안된 CAMOUFLaGE 모델은 CelebA-HQ 데이터셋에서 DeepPrivacy2 대비 Re-ID@1 지표가 1.8%-1.9%로 약간 높습니다.
CAMOUFLaGE-Light는 내부 얼굴 속성 예측 AUC 0.890, 외부 얼굴 속성 예측 AUC 0.919로 원본 이미지 대비 각각 0.904, 0.922와 유사한 성능을 보입니다.
CAMOUFLaGE-Light는 CAMOUFLaGE-Base 대비 추론 시간이 약 3.8배 빠릅니다.
引述
"제안된 LDM 기반 CAMOUFLaGE는 기존 기법 대비 복잡한 장면에서도 얼굴, 신체, 배경 요소에 변형을 도입하여 익명화를 달성합니다."
"CAMOUFLaGE-Light는 장면의 핵심 요소와 각 인물의 얼굴 속성을 효율적으로 인코딩하여 이미지 내용을 잘 보존하면서도 추론 시간을 크게 단축합니다."