Core Concepts
자율주행 시스템의 투명성과 안전성을 높이기 위해 설명 가능한 인공지능 기술을 활용하여 운전자 지원 시스템의 세계 모델을 해석하고 예측 모델의 동작을 설명할 수 있다.
Abstract
이 논문은 자율주행 시스템의 투명성과 안전성 향상을 위해 설명 가능한 인공지능(XAI) 기술을 활용하는 방법을 제안한다.
첫째, 합성곱 변분 자동 인코더(ConvVAE)의 내부 기능을 시각화하는 도구를 개발하였다. 이를 통해 각 합성곱 층에서 추출되는 특징 맵과 주요 성분을 분석하여 모델의 내부 동작을 이해할 수 있다. 또한 잠재 공간과 입력 특징 간의 매핑을 시각화하는 잠재 공간 해석 기법을 제안하였다.
둘째, 통계 물리학의 재규격화 그룹(RG) 기법을 활용하여 본질적으로 투명하고 해석 가능한 자동 인코더 아키텍처를 구축하였다. 이를 통해 잠재 공간과 입력 특징 간의 관계를 직관적으로 이해할 수 있다.
셋째, 장단기 메모리(LSTM) 네트워크의 내부 동작과 입력 특징의 중요도를 해석하는 기법을 제안하였다. 메모리 셀의 은닉 상태 분석과 계층별 관련성 전파(LRP) 기법을 활용하여 LSTM의 예측 과정을 설명할 수 있다. 또한 입력 특징의 변화에 따른 LSTM의 반응을 분석하여 안전성 문제를 탐지할 수 있다.
이러한 XAI 기법들은 자율주행 시스템의 투명성과 신뢰성을 높이는 데 기여할 수 있으며, 향후 이러한 시스템의 인증에도 활용될 수 있다.
Stats
자율주행 시스템에서 투명성과 안전성은 매우 중요하며, 실수가 비용이 많이 든다.
신경망은 일반적으로 블랙박스로 간주되지만, 특징 관련성 추정과 차원 축소 등의 XAI 기법을 통해 해석할 수 있다.
재규격화 그룹 기법은 제한된 볼츠만 기계의 비지도 학습을 해석하는 데 사용되었다.
Quotes
"자율주행 시스템에서 투명성과 안전성은 매우 중요하며, 실수가 비용이 많이 든다."
"신경망은 일반적으로 블랙박스로 간주되지만, XAI 기법을 통해 해석할 수 있다."
"재규격화 그룹 기법은 제한된 볼츠만 기계의 비지도 학습을 해석하는 데 사용되었다."