인공지능 설명가능성(xAI) 방법은 검은 상자 모델에 대한 신뢰를 구축하는 데 중요하지만, 이러한 방법들이 거짓이며 조작될 수 있다는 비판이 제기되고 있다. 이 논문은 이상화 평가 프레임워크(SIDEs)를 제안하여 성공적인 이상화와 기만적 설명을 구분하고자 한다.