แนวคิดหลัก
본 연구에서는 인공지능 모델의 예측 결과에 대한 설명 가능성을 높이기 위해 열역학 개념을 도입하였다. 이를 통해 모델의 복잡도가 아닌 해석 가능성을 기준으로 최적의 설명을 도출할 수 있다.
บทคัดย่อ
본 연구는 인공지능 모델의 예측 결과에 대한 설명 가능성을 높이기 위해 열역학 개념을 도입하였다. 기존의 설명 기법들은 모델의 복잡도를 기준으로 삼았지만, 이는 인간의 이해도를 충분히 반영하지 못한다는 한계가 있었다.
이에 본 연구에서는 '해석 엔트로피'라는 개념을 도입하여 선형 모델의 인간 이해도를 정량화하였다. 이와 더불어 모델의 정확성과 해석 가능성 간의 trade-off를 열역학의 자유에너지 개념을 차용하여 정의하였다. 이를 통해 최적의 설명을 도출할 수 있는 TERP(Thermodynamics-inspired Explainable Representations of AI) 방법론을 제안하였다.
TERP는 모델 특화적이지 않으며, 분자 동역학 시뮬레이션, 이미지 분류, 텍스트 분류 등 다양한 분야에 적용될 수 있다. 특히 분자 동역학 분야에서는 기존 연구에서 활용도가 낮았던 인공지능 설명 기법을 성공적으로 적용하여 모델의 신뢰성을 높일 수 있었다. 또한 이미지 및 텍스트 분류 모델에 대한 설명을 통해 모델의 예측 근거를 명확히 할 수 있었다.
본 연구는 인공지능 모델의 해석 가능성 제고를 위한 새로운 접근법을 제시하였으며, 향후 다양한 분야에서 활용될 것으로 기대된다.
สถิติ
분자 동역학 시뮬레이션에서 아라닌 디펩타이드의 ϕ, ψ, θ, ω 이면각이 중요한 특징으로 확인되었다.
이미지 분류 모델에서 'science', 'species'가 가장 중요한 키워드로 나타났다.
คำพูด
"모델의 복잡도는 인간의 이해도를 충분히 반영하지 못한다."
"최적의 설명은 모델의 정확성과 해석 가능성 간의 trade-off를 통해 도출된다."