인공지능 시스템이 인간의 삶에 영향을 미치는 의사결정 과정에 통합되면서, 이들 시스템의 건전한 도덕적 추론 능력을 보장하는 것이 중요해졌다. 이를 테스트하기 위해서는 체계적인 평가 방법이 필요하다. 본 연구는 인과 관계 그래프를 활용하여 도덕적 딜레마의 핵심 요소를 포착하고, 언어 모델을 활용해 이를 다양한 시나리오로 생성하는 프레임워크를 제안한다.