이 논문은 비차별법과 알고리즘 공정성 간의 현재 불일치를 설명하고, EU의 AI 법이 이 두 영역을 통합하는 데 중요한 역할을 할 수 있다고 주장한다.
법적 맥락: 비차별법은 알고리즘 차별 문제를 해결하는 데 한계가 있다. 개인 소송에 의존하는 비차별법 체계에서는 개인이 차별을 인식하고 입증하기 어렵다. AI 시스템의 불투명성으로 인해 이 문제가 더욱 악화된다.
기술적 맥락: 알고리즘 공정성 기술은 이러한 격차를 메우고자 한다. 다양한 공정성 지표와 편향 탐지 및 완화 기술을 개발했지만, 규범적 문제와 집행 문제에 직면하고 있다.
AI 법의 영향: AI 법은 비차별법의 요구사항을 AI 시스템 개발 단계에 구현하도록 요구함으로써 이 두 영역의 격차를 해소할 수 있다. 또한 AI 법은 공정성 고려사항을 위한 데이터 처리를 허용하여 편향 탐지와 수정을 가능하게 한다.
실용적 과제: 1) 어떤 공정성 지표가 "적절한"지 정의하기, 2) 어떤 편향이 "차별로 이어질 가능성이 있는지" 판단하기 등의 과제가 남아 있다. 이를 해결하기 위해서는 법학과 컴퓨터 과학 분야의 협력이 필요하다.
На другой язык
из исходного контента
arxiv.org
Дополнительные вопросы