本論文は、人工知能支援意思決定システム(AI-DSS)における倫理的で説明可能なAIの実現について論じている。
まず、現在のXAI(Explainable AI)研究では、AI-DSSの決定プロセスを透明化することで、ユーザーの信頼を得ようとしているが、ユーザーの理解度に合わせた適切な説明方法が明確ではないことを指摘する。
そこで著者らは、新たな理論「認識論的準パートナーシップ(EQP)」を提案する。EQPでは、AI-DSSをユーザーの認識論的パートナーとして位置づけ、ユーザーの自然な認識論的実践に合わせた3つの説明アプローチ(RCC)を推奨する:
これらの説明アプローチは、ユーザーの認識論的実践に合致し、信頼性の高い意思決定を支援することが実証研究から示されている。一方で、単なる人間化ではなく、AIとユーザーの準パートナーシップを構築することで、倫理的な課題にも対処できると論じている。
Vers une autre langue
à partir du contenu source
arxiv.org
Questions plus approfondies