머신러닝 모델의 설명에서 발생하는 불일치 문제를 해결하기 위해 다양한 이해관계자의 요구사항을 충족하는 EXAGREE 프레임워크를 소개하고, 이를 통해 설명의 일관성과 신뢰성을 향상시키는 방법을 제시합니다.
딥러닝 모델의 불투명성으로 인해 AI 시스템의 의사 결정 과정을 설명하는 것은 어려운 과제이지만, 본 논문에서는 다양한 설명 가능성 기법을 비교하고, 특히 비전 트랜스포머 모델에 적용하여 실용적인 프레임워크를 제안한다.
프로토타입 기반 설명 가능한 AI(XAI) 방법은 지구과학 연구에서 복잡한 기후 및 기상 현상을 이해하고 해석하는 데 유망한 접근 방식을 제공한다.
본 논문은 예술 공연에서 움직임을 통해 인공지능 모델의 잠재 공간을 탐색하고, 이를 통해 설명 가능한 AI 시스템 개발에 기여할 수 있는 가능성을 제시합니다.