核心概念
AI 시스템의 결정을 설명하기 위해서는 법적 요구사항을 충족해야 한다.
摘要
이 논문은 법과 설명가능한 인공지능(XAI) 간의 관계를 조사한다. EU AI법안에 대한 논의가 많이 있지만, 다른 법 분야는 상대적으로 탐구되지 않았다. 이 논문은 유럽(일부 독일) 법을 중심으로 다루며, 신의성실 검증, GDPR, 제품 안전 및 책임 등의 국제 개념과 규정도 포함한다.
XAI 분류법을 기반으로 각 법적 근거에서 XAI 방법에 대한 요구사항을 도출했다. 그 결과, 각 법적 근거는 다른 XAI 속성을 요구하며, 현재 기술 수준으로는 이를 완전히 충족하지 못한다는 것을 알 수 있었다. 특히 XAI 방법의 정확성(때로는 충실도라 불림) 및 신뢰도 추정치가 부족한 것으로 나타났다.
統計資料
기업법에서는 AI 결정의 개연성 검토가 필수적이며, 이를 위해 설명의 정확성, 완전성, 일관성, 압축성 등이 요구된다.
GDPR에 따르면 데이터 주체에게 AI 결정에 대한 설명을 제공해야 하며, 이를 위해 반대 가능성, 신뢰도 추정치 등이 필요하다.
제품 안전 및 책임법에서는 AI 결함을 발견하고 배제하기 위해 설명의 정확성, 복잡성, 신뢰도 추정치 등이 중요하다.
引述
"AI 시스템의 결정에 대한 설명가능성은 이들의 개발과 배치를 위해 필수적이다."
"각 법적 근거는 다른 XAI 속성을 요구하며, 현재 기술 수준으로는 이를 완전히 충족하지 못한다."
"특히 XAI 방법의 정확성 및 신뢰도 추정치가 부족한 것으로 나타났다."