Основные понятия
인공지능 윤리 원칙을 실제 인공지능/기계학습 시스템에 적용하는 과정에서 발생하는 윤리적 측면들 간의 긴장관계를 해결하기 위한 다양한 접근법을 제시하고 분석한다.
Аннотация
이 논문은 인공지능 윤리 원칙을 실제 인공지능/기계학습 시스템에 적용하는 과정에서 발생하는 윤리적 측면들 간의 긴장관계를 해결하기 위한 다양한 접근법을 제시하고 분석한다.
먼저 다섯 가지 접근법을 소개한다:
- 가장 중요한 윤리적 측면을 선택하는 접근법
- 위험 감소를 위해 윤리적 측면을 침해하고 완화하는 접근법
- 요구사항 공학 기법을 활용한 접근법
- 정량적 순위 매기기를 통한 접근법
- 원칙주의에 기반한 접근법
각 접근법의 장단점을 분석하고, 이를 바탕으로 실제 인공지능 시스템 설계 과정에 적용할 수 있는 다층적 프레임워크를 제안한다. 이 프레임워크는 1) 잠재적 긴장관계 사전 파악, 2) 윤리적 측면의 우선순위화 및 가중치 부여, 3) 의사결정 과정의 정당화 및 문서화 등 3가지 주요 구성요소로 이루어진다.
제안된 프레임워크는 규제 요구사항에 부합하는 균형 잡힌 인공지능 시스템 구현을 지원하는 것을 목표로 한다.
Статистика
인공지능 기반 사용자 인증 시스템에서 정확도를 높이기 위해 더 많은 개인 식별 정보(얼굴 이미지 등)를 사용하면 프라이버시 측면이 침해될 수 있다.
딥 신경망(DNN) 모델을 사용하면 정확도를 5% 향상시킬 수 있지만, 설명 가능성이 감소한다.
음성 데이터와 함께 얼굴 데이터를 사용하면 정확도를 10% 향상시킬 수 있지만, 프라이버시에 부정적인 영향을 미친다.
Цитаты
"정확도 대 설명 가능성" 이라는 이분법은 아니며, 신뢰할 수 있는 인공지능 시스템을 위해서는 두 가지 모두가 필요하다.
인공지능 윤리 원칙을 실제 구현하는 과정에서 발생하는 긴장관계와 트레이드오프를 공식적으로 다루는 일반적으로 합의된 프레임워크가 현재 부재한 상황이다.