Core Concepts
본 연구는 사전에 정의된 편향 집합에 의존하지 않고 텍스트-이미지 생성 모델의 편향을 발견하고 정량화하는 OpenBias 파이프라인을 제안한다.
Abstract
본 연구는 텍스트-이미지 생성 모델의 편향을 발견하고 정량화하는 OpenBias 파이프라인을 제안한다.
편향 제안 단계: 대규모 언어 모델(LLM)을 활용하여 주어진 캡션 집합에 대한 잠재적 편향을 제안한다.
편향 평가 단계: 대상 생성 모델을 사용하여 동일한 캡션으로 이미지를 생성하고, 시각적 질문 답변(VQA) 모델을 통해 이전에 제안된 편향의 존재와 정도를 인식한다.
편향 정량화 단계: 컨텍스트 인식 및 컨텍스트 자유 접근법을 통해 편향의 심각도를 정량화한다.
실험 결과, OpenBias는 기존 폐쇄형 편향 탐지 방법과 인간 판단력에 부합하는 것으로 나타났다. 또한 Stable Diffusion 모델에서 새로운 편향을 발견했다.
Stats
"A chef in a kitchen standing next to jars"
"A kid on a beach throwing a Frisbee"