기반 모델은 합리적으로 들리는 결정을 생성할 수 있지만 실제로는 부적절할 수 있다. 이 연구는 기반 모델의 환각을 탐지하고 완화하는 방법을 제안한다.
설명은 직접적인 편향은 감지하지만 간접적인 편향은 감지하지 못한다. 또한 편향 유형과 관계없이 설명은 사용자가 모델 편향에 동의하도록 이끈다. 공개는 간접적인 편향에 대한 인식과 의사결정의 공정성을 향상시킬 수 있다.