核心概念
인공지능 시스템의 개발, 배치 및 사용에 대한 신뢰를 구축하는 것이 중요하며, 이를 위해서는 기술적, 윤리적, 법적 측면에서의 신뢰성 확보가 필요하다.
摘要
이 논문은 인공지능에 대한 신뢰의 개념, 유형, 영향 및 측정 방법을 체계적으로 검토한다.
먼저 신뢰의 일반적인 정의를 인공지능 맥락에 적용하여 설명한다. 인간-기계 상호작용의 다양한 유형(인간-기계, 기계-인간, 기계-기계)과 각 유형에서 신뢰의 중요성을 살펴본다. 또한 인공지능 기술의 수용에 신뢰/불신이 미치는 영향을 의료, 금융, 개인 비서 등 다양한 분야에서 확인한다.
다음으로 신뢰할 수 있는 인공지능을 위한 기술적, 비기술적 측정 지표를 제시한다. 기술적 측면에서는 안전성, 정확성, 견고성 등을, 비기술적 측면에서는 설명가능성, 투명성, 해석가능성, 공감, 프라이버시, 공정성, 책임성 등을 다룬다. 각 지표에 대한 정의, 중요성, 측정 방법 등을 상세히 설명한다.
마지막으로 인공지능에 대한 불신의 원인과 해결책을 논의한다. 자율성 및 존엄성 위협, 감시 및 조작, 예측 불가능한 미래 등이 불신의 주요 원인으로 제시되며, 이를 해결하기 위한 방안을 제안한다.
統計資料
인공지능은 의료, 자율주행, 군사, 데이터 보안, 엔터테인먼트 등 다양한 분야에서 기존 솔루션을 능가하는 성과를 보이고 있다.
인공지능에 대한 신뢰는 이 기술의 채택 수준을 크게 좌우한다. 불신은 인공지능 기술의 개발과 적용을 저해할 수 있다.
인공지능 시스템의 정확성, 신뢰성, 투명성, 설명가능성 등 기술적 요소와 윤리성, 공정성, 책임성 등 비기술적 요소가 신뢰 형성에 중요하다.
引述
"인공지능 시스템의 개발, 배치 및 사용에 대한 신뢰를 구축하는 것이 중요하며, 이를 위해서는 기술적, 윤리적, 법적 측면에서의 신뢰성 확보가 필요하다."
"개인, 조직 및 사회가 인공지능의 잠재력을 완전히 실현하려면 그 개발, 배치 및 사용에 대한 신뢰를 구축할 수 있어야 한다."
"인공지능에 대한 신뢰는 단순한 비윤리적 고려사항이 아니라 AI 성능, 투명성 및 설명가능성, 법적 및 기술적 규정 준수 등 다양한 영역을 포함한다."